Des IA plus persuasives que les humains

2
Des IA plus persuasives que les humains
Des IA plus persuasives que les humains

Africa-Press – Guinee Bissau. C’est le genre de sujet qui alimentent les concours de débats académiques aux Etats-Unis: “l’enseignement en ligne peut-il se substituer avec la même efficacité à l’enseignement en présentiel ?”, “les réseaux sociaux rendent-ils stupides ?”, “les Etats-Unis doivent-ils fournir une aide militaire à l’Ukraine dans sa guerre avec la Russie ?”.

Les participants ont quatre minutes pour exposer leur position, trois minutes pour réfuter les arguments du contradicteur et trois autres pour conclure. Avec une petite nuance par rapport aux débats classiques: selon les cas, l’un des participants peut être un modèle de langage.

Ce cadre expérimental a été monté par une équipe de l’Ecole Polytechnique fédérale de Lausanne, en Suisse, pour évaluer à quel point une IA conversationnelle pouvait servir à convaincre des gens d’une idée avec laquelle ces derniers ne sont pas d’accord au départ. Les résultats obtenus sont assez sidérants: les LLM (grands modèles de langage) s’avèrent très persuasifs et donc potentiellement inquiétants si l’on imagine un usage malveillant, notamment sur les réseaux sociaux, pour manipuler un scrutin électoral à venir.

Interaction ciblée

Car, évidement, tout ne se résume pas à de simples échanges d’idées. La puissance de l’IA se base en grande partie sur le fait qu’elle a accès à des données sur ses contradicteurs humains et qu’elle peut personnaliser et cibler ses réponses en fonction des interlocuteurs. Ce qu’un internaute est incapable de faire, en tout cas jamais à une telle échelle.

C’est précisément sur cette question de l’interaction ciblée que porte l’expérience de l’EPFL. L’étude est accessible en ligne. Pour un total de 30 sujets de discussion, 820 participants ont été recrutés. Ils étaient appelés à débattre soit entre humains, soit avec un modèle de langage, en l’occurrence GPT-4. Mais deux variantes ont été ajoutées: échanger avec un humain qui dispose de données personnelles sur son concurrent et échanger avec une IA, qui a aussi accès à de telles données. Ces informations étaient renseignées par les participants au moment de leur recrutement, et anonymisées, et comptaient l’âge, le sexe, le groupe ethnique, le niveau d’éducation, le type d’emploi et l’affiliation politique.

Avant tout échange d’argument, les participants avaient une minute pour noter sur une échelle de 1 à 5 s’ils étaient d’accord avec le sujet. Après la session, les chercheurs leur redemandaient de noter.

L’IA détectée trois fois sur quatre

L’effet observé est massif: dans les débats en présence de GPT-4 muni des données sur son contradicteur, ce dernier a 81,7% de chances supplémentaires de changer sa position initiale pour se ranger du côté du modèle de langage, par rapport à ce qui se passe à l’issue d’un débat entre humains. Sans personnalisation de ses arguments, l’IA continue d’être plus persuasive que l’humain mais la différence n’est, selon les chercheurs, pas “statistiquement significative” (21,3% de mieux).

Dans cette expérience, le plus troublant reste peut-être que les participants n’ont pas de difficultés à détecter qu’ils ont affaire à une IA: celle-ci est identifiée correctement dans 3 cas sur 4. C’est bien la capacité de persuasion qui pose problème. Pour les chercheurs, un risque réel plane sur les plateformes de réseau sociaux, puisque celles-ci regorgent de données personnelles susceptibles d’être exploitées de manière industrielles et automatisées. En comparaison, ce qu’avait réussi à faire Cambridge Analytica avec les données d’utilisateurs de Facebook pourrait bientôt s’apparenter à du travail artisanal.

Pour plus d’informations et d’analyses sur la Guinee Bissau, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here