source texte Questionner la toute-puissance des algorithmes : rencontre avec Surya Mattu:
Organigramme d'un algorithme génétique
Les algorithmes sélectifs de Google et des réseaux, qui filtrent les nouvelles pour les internautes, jouent un rôle décisif dans ces flux « en cascade ». En ne retenant que des informations fondées sur les demandes passées et préférentielles des internautes, ces algorithmes échantillonnent des parti-pris et des informations partisanes confortant leurs avis habituels et ceux de leurs groupes d’amis.
Ce faisant, ils les confinent dans leur « vision du monde » et leurs « croyances » tout en faisant « passer (celles-ci) pour des faits », si bien qu’aujourd’hui nous avons
« moins de chances d’être exposés à une information qui nous stimulerait ou élargirait notre vision du monde, et donc moins de chance de tomber sur des faits qui réfuterait des informations fausses partagées par d’autres ».
extrait du blog http://fredericjoignot.blog.lemonde.fr/2016/08/30/
Des exemples de discriminations algorithmiques, Surya Mattu, chercheur chez ProPublica, en a plus d’un à raconter. «Il y a notamment cette histoire révélée par Bloomberg concernant le service de livraison en un jour ouvré d’Amazon», qui ne couvre pas certains quartiers où vivent des populations défavorisées.
Autre illustration, dévoilée par ProPublica : le prix des packs d’entraînement au Scholastic Assessment Test (SAT), l’équivalent du baccalauréat américain, qui varie selon les quartiers d’habitation d’une même ville. Dans chacun des cas, certaines personnes sont en situation d’exclusion. En cause : les biais algorithmiques.De l’aveu même de Surya Mattu, définir précisément un biais algorithmique n’est pas chose aisée :
«Je dirais que c’est un ensemble de règles implémentées dans un input et qui produisent, en output, des conséquences différentes pour tel ou tel groupe de personnes», explique-t-il.
Des «conséquences différentes» qui ne sont pas forcément pensées en amont, encore moins souhaitées, mais qui sont néanmoins bien réelles. En d’autres termes, un algorithme pourra créer des discriminations «parce que le système est discriminant en lui-même». Le système ? Il peut tout aussi bien s’agir du jeu de données utilisé, de la formule algorithmique appliquée que de l’analyse du résultat.
UN PHÉNOMÈNE GLOBALISÉ
Si, en France, ces préoccupations n’en sont pas au même stade d’avancement, les récents questionnements sur le système « admission post-bac » et l’ouvrage du chercheur Dominique Cardon intitulé A quoi rêvent les algorithmes, ont eu, entre autres, le mérite d’ouvrir le débat. Voire de trouver un certain écho dans la classe politique.
«La plupart des décisions sont prises par des algorithmes informatiques mais les gens ne le réalisent pas. Prenez l’affectation des enseignants. On pense que c’est quelqu’un dans un bureau qui décide que monsieur Untel devrait aller à Orléans plutôt qu’à Marseille [ce qui n’est pas le cas puisqu’un algorithme s’en charge, NDLR]. Connaître les critères permettrait de lutter contre le sentiment d’injustice. Cela éviterait aussi les abus et les interventions discrétionnaires.» Axelle Lemaire, la secrétaire d’Etat chargée du numérique sur Rue89
Des exemples de part et d’autres du globe qui confinent au mathwashing, concept développé par Fred Benenson, anciennement à la tête du département data de Kickstarter : selon ce dernier, l’utilisation des statistiques servirait, dans certains cas, à dessiner une réalité différente de ce qu’elle est réellement, sous couvert de rationalité mathématique.
suite de l 'article
(RSLN, le laboratoire d’idées de Microsoft France, et Usbek & Rica)