Africa-Press – Guinee Equatoriale. Peut-être croyez-vous que les trainées de condensation laissées dans le ciel par les avions sont en réalité des produits chimiques déversés par des organisations gouvernementales pour empoisonner les populations. Ou que les Juifs contrôlent le monde, ce dont Les Protocoles des Sages de Sion seraient la preuve. Ou encore que les attentats terroristes du 11 septembre 2001 sont une manipulation du complexe militaro-industriel américain.
Tous ces complots n’en sont pas mais il est facile d’en trouver de pseudo-preuves partout sur Internet et d’alimenter ces croyances en échangeant avec d’autres internautes qui y croient dur comme fer eux aussi. Contre-argumenter donne souvent peu de résultats, avancer des faits contredisant le pseudo-complot étant vu comme partie intégrante de ce complot…
Une interaction personnalisée
Pourtant, des chercheurs du Massachusetts Institute of Technology (MIT) et de l’université Cornell (Etats-Unis) mettent en avant une solution apparemment prometteuse: faire interagir des participants complotistes avec un modèle de langage (LLM).
L’idée est de voir, avec un tel dispositif, quel est l’effet d’une interaction personnalisée, d’une contradiction non pas adressée globalement à tous les conspirationnistes mais à une personne en particulier et en temps réel. L’autre intérêt des LLM est leur capacité à accéder à une masse immense d’informations, leur permettant de réagir à toute affirmation pour la réfuter, la corriger, pointer les fausses preuves, avec tous les éléments nécessaires dont un contradicteur humain pourrait manquer.
Or, les chercheurs se sont aperçus que 20% des participants finissaient par douter de la réalité de la conspiration en laquelle ils croyaient et que cet effet était durable.
L’équipe a sollicité 2190 personnes. Chacune a exposé une conspiration dont elle était convaincue dans un texte libre, avec ses arguments. Puis ce texte a été envoyé dans un chatbot utilisant le modèle GPT-4 Turbo d’OpenAI avec pour instruction de le résumer. Le participant a dû noter sur une échelle de 0 à 100% s’il était d’accord avec le résumé généré par l’IA, la note de 50% pouvant se traduire par “je ne suis pas sûr”.
Un fact checker dans la boucle
A partir de là commence un échange entre l’agent conversationnel et la personne. L’IA a eu au préalable pour instruction, donnée par les chercheurs, d’essayer d’être la plus persuasive possible en puisant dans toutes les ressources qu’elle avait à disposition et en s’adaptant à son interlocuteur, à ses arguments.
Toutes les conversations étaient constituées de trois séries d’affirmation/contre-affirmation, pour une durée moyenne de 8 minutes 40, le tout pour éviter de lasser le participant.
Bien sûr, l’IA devait renvoyer des faits authentiques, vérifiés, ce dont elle est incapable de juger. D’où le recours à un professionnel charger de le faire. Sur 128 affirmations générées par le modèle, 127 étaient avérés et une seule “fallacieuse” (mais aucune fausse). Ce “fact-checker” a également estimé qu’aucun des arguments poussés par GPT4 Turbo n’avait de biais politique.
Un effet durable
Après leur échange avec l’IA, les participants ont noté à nouveau leur niveau de conviction dans la théorie du complot discutée. Or, 27,4% ont admis avoir bien plus de doutes qu’à l’origine, donnant une note de moins de 50%. Ils étaient 2,4% dans ce cas au départ. La question leur a été reposée dix jours puis deux mois plus tard. Les chercheurs ont découvert que le doute des participants ne s’était pas résorbé, l’effet de leurs interactions avec l’IA semble durable.
Parmi les conspirations défendues par les participants, toutefois, certaines étaient vraies et bien documentées, tels le projet MK Ultra de la CIA sur la manipulation mentale ou Echelon, concernant la surveillance américaine des réseaux de télécommunication. Dans ce genre de situation, les participants sortaient de l’expérience sans que leur conviction ait été ébranlée, voire très légèrement renforcée. Dans le cas de théories du complot plus ambigües, où le vrai se mêle à des conspirations sans gravité, là non plus les participants ne changent pas leur position.
La méthode a un effet sur le conspirationnisme le plus échevelé, celui qui postule des implications d’une grande gravité. Et ce quel que soit le thème, de l’assassinat du président John Kennedy au Covid-19 en passant par les illuminati et l’élection présidentielle américaine de 2020.
L’une des limites de l’expérience réside dans le fait que chaque interaction avec l’IA se focalisait sur une conspiration en particulier, alors que souvent, les tenants de thèses complotistes emboîtent divers scénarios les uns dans les autres. Elle s’adresse aussi à un public exclusivement américain, ce qui soulève la question de l’effet de l’approche dans d’autres contextes culturels. Au moins, cette étude a le mérite de montrer que le conspirationnisme n’est pas une fatalité et qu’une contre-argumentation n’est pas toujours contre-productive.
Pour plus d’informations et d’analyses sur la Guinee Equatoriale, suivez Africa-Press