Les biais de l’intelligence artificielle amplifient nos propres biais

5
Les biais de l’intelligence artificielle amplifient nos propres biais
Les biais de l’intelligence artificielle amplifient nos propres biais

Africa-Press – Côte d’Ivoire. s sont intégrés dans les intelligences artificielles (IA), il en existe beaucoup moins sur la manière dont les systèmes d’IA peuvent ensuite influencer les préjugés humains en retour. Face à ce constat, une équipe de chercheurs de l’University College London (Royaume-Uni) a étudié cet effet « boule de neige » potentiel. Dans une étude publiée dans la revue Nature Human Behaviour, ils révèlent que les systèmes d’intelligence artificielle ont tendance à s’imprégner des préjugés humains et à les amplifier.

L’IA amplifie nos propres biais

Les chercheurs ont mené une étude avec plus de 1200 participants. Lors d’une expérience, ils ont entraîné une IA à deviner si des visages semblaient heureux ou tristes, en se basant sur les réponses d’un premier groupe de participants. Ce groupe avait tendance à qualifier davantage de visages tristes, plutôt qu’heureux.

Un second groupe de participants a ensuite réalisé la même tâche, cette fois avec les jugements de l’IA affichés à côté de chaque image. Après avoir interagi avec le système, ces participants ont eux-mêmes développé un biais encore plus marqué, jugeant plus fréquemment les visages comme tristes.

Plusieurs expériences de ce genre ont été réalisées, montrant que l’IA peut non seulement apprendre les biais humains à partir de données, mais également les renforcer et les transmettre aux personnes qui l’utilisent, créant un effet boule de neige. Pour l’auteur de l’étude, « même des biais minimes peuvent être repris de manière systématique par l’IA ».

« Les données de l’IA sont biaisées car elles sont humaines »

« L’IA est entraînée sur des ensembles de données qui contiennent des biais humains inhérents », explique Moshe Glickman, co-auteur principal de l’étude. Une conclusion démontrée dans de nombreuses études, et qui fait peser une lourde responsabilité sur les programmateurs et techniciens qui entraînent les systèmes d’IA. « Garbage in, garbage out », écrivent les chercheurs britanniques, expression que l’on peut traduire par « des données erronées produisent des résultats erronés ».

Mais la réalité est plus complexe. “L’IA apprend à partir de ce que savent les humains, nous précise Serge Abiteboul, directeur de recherche émérite à l’Inria et co-auteur de la pièce de théâtre Qui a hacké Garoutzia ?. Les données de l’IA sont biaisées car elles sont humaines ». Par exemple, dans certaines langues, les systèmes d’IA seront moins performants, tout simplement par manque de données dans ces langues. “L’IA se nourrit de notre histoire et de tous ses biais. On retrouve souvent une sous-représentation des femmes, ou de certaines classes plutôt que d’autres », ajoute le chercheur français.

Il est rejoint par Moshe Glickman, qui souligne l’importance de l’interdisciplinarité dans la résolution du problème: « Pour comprendre le phénomène, nous avons besoin de la contribution des chercheurs en sciences cognitives pour comprendre comment les humains intériorisent les biais de l’IA, des chercheurs en sciences sociales pour évaluer les impacts sociétaux plus larges, des décideurs politiques pour établir des lignes directrices appropriées et des organisations qui déploient ces systèmes. »

« On veut des biais »

Il existe plusieurs solutions techniques pour limiter ces biais. Les résultats de l’étude incitent à donner une attention particulière à la qualité des données d’entraînement, les tester, et concevoir des systèmes qui améliorent la précision sans amplifier les biais. Pour l’auteur, il est surtout important de « sensibiliser les utilisateurs à l’influence potentielle de l’IA » sur leurs propres biais, dont ils n’ont souvent pas conscience.

Malgré ces recommandations, pour Serge Abiteboul, qui n’a pas participé à cette étude, il est impossible d’empêcher tout biais. « On voit toujours le biais comme quelque chose de négatif, mais on veut des biais. On veut que les logiciels soient biaisés et s’adaptent à nos préférences, poursuit-il. La vraie question, c’est de définir ce qu’est un biais, lesquels sont souhaitables et lesquels ne le sont pas”. Les résultats de l’étude ne signifient pas qu’il faudrait éviter les interactions entre l’homme et l’IA, mais soulignent plutôt l’importance d’un questionnement interdisciplinaire autour de la conception et de l’utilisation de ces systèmes.

Pour plus d’informations et d’analyses sur la Côte d’Ivoire, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here