Intelligence artificielle : des chercheurs alertent sur les dangers du rôle persuasif de l’IA

2
Intelligence artificielle : des chercheurs alertent sur les dangers du rôle persuasif de l’IA
Intelligence artificielle : des chercheurs alertent sur les dangers du rôle persuasif de l’IA

Africa-Press – Mali. Melu est un agent conversationnel pour des gens souffrant de problèmes de santé mentale. Deux groupes d’utilisateurs ont été invités à le tester avant d’éventuellement le recommander à un ami. Dans le premier, 88 % l’ont trouvé très bienveillant. Mais dans l’autre, cette part tombe à 44 %, et un quart le juge manipulateur. Le chatbot était pourtant strictement le même (en l’occurrence GPT3). L’explication se situe en amont du test: à certaines personnes, les expérimentateurs ont dit que l’outil allait se montrer plein d’empathie et chercher à les aider ; les autres avaient été prévenues qu’il était conçu pour vanter un service payant.

C’est le scénario d’une étude de chercheurs du Massachusetts Institute of Technology (MIT, États-Unis). Parue en octobre 2023, elle révèle qu’une intelligence artificielle (IA) peut être biaisée par la perception qu’en a son utilisateur, indépendamment de l’efficacité réelle de l’outil. En 2021, déjà, trois chercheurs en gestion des systèmes d’information de l’Université de Géorgie (États-Unis), montraient à quel point des personnes étaient prêtes à réfuter leurs propres intuitions si une IA proposait une autre réponse.

Une confiance, sinon aveugle, du moins excessive envers des technologies

Après avoir demandé à des participants d’évaluer le nombre de personnes sur des photos de groupe, les chercheurs leur ont soumis deux estimations: celle d’un algorithme et une moyenne d’estimations données par 5000 autres personnes. L’une comme l’autre étant des fictions pour les besoins de l’étude, mais les participants l’ignoraient. Ces derniers pouvaient alors maintenir leur intuition initiale ou s’en remettre à l’une des deux suggestions.

Dans toutes les variantes de l’expérience, les participants ont eu une nette tendance à privilégier les réponses du soi-disant algorithme, au détriment de leur propre jugement comme de celui d’autres personnes. Et ce, même si le chiffre suggéré était outrageusement faux, l’algorithme surévaluant dans certains cas de 100 % le nombre de personnes, alors que leur propre réponse était proche du bon chiffre. Pour les chercheurs, ces résultats témoignent d’une confiance, sinon aveugle, du moins excessive envers des technologies dans le cadre de problèmes difficiles à résoudre.

“Les participants ont non seulement reproduit les biais de l’IA mais les ont aussi acquis”

Ce rapport humain-IA apparaît plus retors encore dans un article de deux chercheuses en psychologie de l’Université de Deusto, à Bilbao (Espagne), publié en octobre 2023. Des étudiants devaient identifier sur des images médicales quels échantillons de tissus étaient atteints d’une maladie (fictive). Pas besoin de compétences en médecine, la tâche était très simple, reposant sur les proportions de deux couleurs de cellules, l’une d’elles indiquant la pathologie. Un groupe était assisté par une IA, l’autre non.

Or, pour 20 % des échantillons, la prédiction de l’IA était fausse de manière évidente. Ce qui n’a pas empêché, là aussi, les étudiants concernés de la suivre, quand les autres, non assistés, donnaient davantage de bonnes réponses. Deuxième phase de l’expérience, avec les mêmes étudiants formant cette fois un unique groupe, sans aucun usage de l’IA. Le résultat est encore plus perturbant: les étudiants qui avaient été exposés auparavant aux prédictions de l’IA ont continué à reproduire ses erreurs !

“Cela nous a surpris, même si c’est ce que nous cherchions à voir, admet Helena Matute, qui a mené ce travail avec Lucia Vicente. Les participants ont non seulement reproduit les biais de l’IA mais les ont aussi acquis. Notre expérience montre qu’une IA a la capacité de transmettre ses biais aux décisions humaines. ”

Un rôle persuasif qui peut avoir des effets graves

Prudence toutefois. Ce résultat étant assez nouveau, il appelle à des études plus poussées tant il est préoccupant. “Ce rôle persuasif de l’IA est susceptible d’être modulé par des facteurs multiples et variés “, explique Lucia Vicente. Le contexte médical de l’expérience montre néanmoins les répercussions possiblement graves de ce phénomène, et les chercheuses envisagent de l’adapter à d’autres situations: décision politique, rencontres en ligne, analyse scientifique de cas…

C’est toute la notion de collaboration humain-machine qui est ici en jeu. “Doit-on demander aux humains d’être aptes à repérer les erreurs dans les décisions d’une IA ou une IA doit-elle servir à détecter de potentielles erreurs d’une décision humaine ? “, avance Helena Matute. Les réponses seront en tout cas bien moins techniques qu’un paramétrage d’algorithme.

Prédiction

Le résultat fourni par un outil d’intelligence artificielle pour une tâche donnée est souvent appelé “prédiction” dans les articles de recherche. Le terme peut être pris au sens propre dans certains cas (diagnostic médical, maintenance prédictive en usine, météo…). Plus généralement, il concerne les algorithmes d’IA statistique qui tirent des règles et des corrélations à partir de jeux de données. Leur réponse n’apporte pas une certitude absolue mais un score de probabilité: un outil de reconnaissance faciale donnera un pourcentage de ressemblance entre deux visages ou entre un visage et une identité. Cela n’empêche pas l’outil d’être globalement fiable mais il ne peut servir, par définition, que d’aide à la décision. Le danger est d’en faire une figure d’autorité.

Pour plus d’informations et d’analyses sur la Mali, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here