Les biais de l’IA : mythe ou réalité?
- 5Discovery

- 12 nov.
- 3 min de lecture
Dernière mise à jour : 13 nov.
Le rapport du GEC (Gender Equality Commission) et du CDADI (Steering Committee on Anti-Discrimination, Diversity and Inclusion) du Conseil de l’Europe pointent du doigt dès 2023 les failles incontestables de l’IA en matière de discrimination….
Une IA qui avance vite, très vite et de façon encore incontrôlée
Pour mieux comprendre les biais potentiels, revenons à la définition large de l’IA…
L’IA, c’est un logiciel basé sur une série de techniques et d’approches qui incluent :
Le Machine Learning ou l’apprentissage autonome à partir de données via des modèles mathématiques, y compris le deep learning ou réseaux de neurones complexes à couches multiples.
Une logique et des connaissances basées sur des bases de références, des modèles de déduction / d’induction élaborés par des systèmes experts.
Une approche statistique reposant sur des modèles formels / informels de données liées ou non et venant de différentes sources, puis ensuite concaténées selon des schémas prédéfinis en algorithmes qui s’autonourrissent… en fonction de l’objectif visé (objectif fourni par l’humain au départ !).
Quels biais dans l’IA ?
L’intérêt de l’algorithme, c’est qu’il dépasse de très loin les capacités du cerveau humain en processant des millions de variables très rapidement et en prenant des décisions. Les données proviennent de toute part, mais évidemment sont fournies à la base par des humains.
Ce sont les humains qui nourrissent l’IA directement, qui va ensuite s’auto-alimenter par les multiples combinatoires des données elles-mêmes, de leurs enrichissements et combinaisons avec encore plus de données venant du web notamment ou d’autres systèmes.
Les données peuvent venir de sources multiples, la plupart du temps non vérifiées… voire difficilement contrôlables.
L’IA ne fait juste que refléter les biais humains incorporés dans les algorithmes… en potentiellement les amplifiant ou en en créant d’autres.
Des exemples ?
Aux États-Unis, les personnes qui gagnent moins historiquement (femmes…) ont moins de chances d’avoir des prêts ou reçoivent des moteurs de recherche des opportunités d’emplois moins bien payées.
Suresh et Guttag ont d’ailleurs catégorisé les biais en 5 catégories

Les 5 biais de l’IA
1. Le biais historique
Vient des inégalités exprimées dans les données à caractère social inscrites dans l’histoire de l’humanité.
Exemple : les femmes sont moins bien payées que les hommes dans bon nombre de domaines professionnels… infos que l’on retrouve dans plein de sites web.
2. Le biais de représentation
Se manifeste dans la collecte des données.
Par exemple un service marketing à prédominance d’employés blancs qui expriment (sans forcément s’en rendre compte d’ailleurs) leurs préférences en matière de services ou produits… les données créées, par nature biaisées, peuvent ensuite s’étendre à tous les clients.
3. Le biais de mesure
Intervient pour prédire un phénomène (ex. biais venant du lieu d’habitation, du prénom ou de la profession).
4. Le biais d’agrégation
Ou comment les données sont combinées entre elles.
Exemple : telles phrases impliquent telle manière d’être, on pense ici au marqueur social et économique bien sûr.
5. Le biais d’évaluation
Intervient lorsque l’on compare une manifestation d’un groupe avec le modèle de départ dit normatif.
Exemple : les systèmes de reconnaissance faciale, moins adaptés aux peaux foncées et aux personnes en situation de handicap — neuroatypique par exemple, l’analyse des vidéos des candidats est biaisée.
Le biais de déploiement
Lorsqu’un modèle est utilisé pour entraîner un autre modèle alors que le caractère reproductible n’est pas adapté (non prise en compte d’autres facteurs).
Et pour couronner le tout, les biais sont amplifiés par la confirmation lorsque l’humain valide les modèles avec une confiance sans borne, sans arbitrage ni regard critique… la machine surpasse le libre arbitre.
Le recrutement: un exemple type
Un domaine d'application type est la phase de sélection de candidats à l'embauche. Pour exemple en 2018, Amazon a développé un programme de machine learning pour identifier les meilleurs CVs. Le programme a systématiquement désavantagé les femmes car reflétait l'écart entre le nombre d'hommes et de femmes recrutés les dernières années.
On note aussi un renforcement des stéréotypes, de la ségrégation et des opportunités moins proposées aux femmes...
L'accès aux biens, services ou encore aux prêts
L'accès à certains services peut également être biaisé en raison de données discriminatoires combinées entre elles ou stéréotypées (âge, genre, lieux de vie etc...) injectées dans l'IA.
Quelle stratégie pour déjouer les biais ?
L'IA se nourrit d'informations... plus les données sont vertueuses, justes, vérifiés et éthiques... plus l'IA les intégrera sans son processus déductif. Garder toujours du recul, et ne pas avoir une confiance aveugle dans l'IA... faisons preuve de discernement , de réflexion et d'esprit critique.
Ne pas hésiter à faire remonter les problèmes lorsque l'on en a connaissance au travers de nos cas d'usages quotidiens...et créons nous aussi du contenu juste, sans jugement de valeur, aux sources vérifiés afin de contrecarrer les algorithmes en place et en créer d'autres...
bref, nous sommes encore au début de l'histoire, c'est à nous de l'écrire !




Commentaires