Aller au contenu

Biais algorithmique

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 15 février 2018 à 16:44 et modifiée en dernier par Seiteta (discuter | contributions) (Créé en traduisant la page « Algorithmic bias »). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

Un biais algorithmique se produit lorsque les données utilisées pour entraîner un système d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données.[1] Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche,[2] les services de réseautage social,[3] le respect de la vie privée,[4] et le profilage racial.[5] Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux, malgré la neutralité présumée des données.[6] L'étude des biais algorithmiques s'intéresse particulièrement aux algorithmes qui reflètent une discrimination "systématique et injuste".:332

Références

  1. Helen Nissenbaum, « How computer systems embody values », Computer, vol. 34, no 3,‎ , p. 120–119 (DOI 10.1109/2.910905, lire en ligne, consulté le )
  2. Lucas Introna et Helen Nissenbaum, « Defining the Web: the politics of search engines », Computer, vol. 33, no 1,‎ , p. 54–62 (DOI 10.1109/2.816269, lire en ligne, consulté le )
  3. Kate Crawford, « Can an Algorithm be Agonistic? Ten Scenes from Life in Calculated Publics », Science, Technology, & Human Values, vol. 41, no 1,‎ , p. 77–92 (DOI 10.1177/0162243915589635)
  4. Zeynep Tufekci, « Algorithmic Harms beyond Facebook and Google: Emergent Challenges of Computational Agency », Colorado Technology Law Journal Symposium Essays, vol. 13,‎ , p. 203–216 (lire en ligne, consulté le )
  5. Lisa Nakamura, The new media of surveillance, London, Routledge, , 149–162 p. (ISBN 9780415568128)
  6. (en) Laura Sydell, « Can Computers Be Racist? The Human-Like Bias Of Algorithms », sur NPR.org, National Public Radio / All Things Considered (consulté le )