ChatGPT invente les données d’une étude scientifique… à la demande des chercheurs

2
ChatGPT invente les données d’une étude scientifique… à la demande des chercheurs
ChatGPT invente les données d’une étude scientifique… à la demande des chercheurs

Africa-Press – Côte d’Ivoire. ChatGPT et ses semblables deviendront-ils les meilleurs amis des faussaires scientifiques ? Les capacités de création de contenu des modèles de langage génératifs ont été rapidement identifiées par des chercheurs comme des aides potentielles pour la rédaction d’articles scientifiques.

Mais d’autres vont plus loin et utilisent ces intelligences artificielles pour fabriquer entièrement leurs articles. Depuis, la version la plus récente de ChatGPT a ajouté un nouvel outil qui lui permet de gérer des tableurs et des données. Une menace de plus pour la crédibilité scientifique ? Certainement, concluent des auteurs italiens qui ont demandé à ChatGPT de fabriquer des données afin de prouver une fausse hypothèse scientifique. Avec leur article, publié le 9 novembre 2023 dans la revue JAMA Ophthalmology, ils alertent sur ce nouvel outil qui pourrait faire exploser le nombre de fausses recherches.

Un ChatGPT plus “créatif” que jamais

L’intelligence artificielle conçue par OpenAI a éveillé d’innombrables craintes, y compris celle de la triche. Grâce à ses capacités de “création”, n’importe qui pourrait lui demander d’écrire à sa place tout et n’importe quoi, allant de dissertations pour les lycéens et des plaidoiries pour les avocats à des textes littéraires qui plagieraient des œuvres existantes ou des articles scientifiques qui propageraient de fausses informations. Et cette utilisation frauduleuse risque de devenir rapidement une vraie plaie dans le monde de la recherche. Déjà, de plus en plus d’articles scientifiques sont écrits en utilisant ChatGPT de manière frauduleuse (tel que cela a été mis en évidence par le chercheur Guillaume Cabanac).

Une mise à jour de cette IA pourrait la rendre encore plus utile pour les faussaires scientifiques. La dernière version de ChatGPT, GPT-4, a été améliorée avec un module qui lui permet d’analyser des données (ADA, pour “advanced data analysis” ou analyse avancée de données), qui utilise le langage de programmation Python. Cela lui permet de télécharger des données pour faire des analyses statistiques, ce qui pourrait être un précieux outil pour la recherche en facilitant ces analyses. Mais les chercheurs italiens Andrea Taloni, Vincenzo Scorcia et Giuseppe Giannaccare, de l’Université Magna Graecia de Catanzaro et de l’Université de Cagliari, viennent de montrer que cet outil peut être facilement détourné pour fabriquer de fausses données.

“Une expérience surprenante et effrayante”

Pour mettre en lumière cette nouvelle menace, ils ont demandé à ChatGPT d’inventer des données qui pourraient prouver une (fausse) hypothèse scientifique. Étant ophtalmologues, ils lui ont demandé de fabriquer des données montrant qu’une technique chirurgicale de l’œil est meilleure qu’une autre pour traiter un kératocône, une maladie dégénérative de l’œil pour laquelle la cornée prend la forme d’un cône (et qui d’ailleurs affecte ce journaliste). Ils lui ont demandé de créer les données de 250 patients (300 yeux étudiés au total), qui devaient respecter quelques consignes précises (pourcentage de femmes dans l’échantillon, fourchette d’acuité visuelle des patients avant l’intervention et fourchette des résultats attendus dans chaque groupe, ainsi que les complications que les patients devraient avoir durant et après la chirurgie et le pourcentage de patients qui devraient présenter ces complications).

En quelques minutes, ChatGPT a créé une liste de 250 personnes (avec nom, prénom, âge, date d’intervention, chirurgie réalisée, etc.). Et comme demandé, les résultats de l’analyse statistique des données inventées par l’IA montraient qu’une de ces techniques chirurgicales produisait de meilleurs résultats… ce qui est complètement faux dans la réalité. Mettant en évidence la facilité avec laquelle des chercheurs sans scrupules pourraient inventer des résultats scientifiques en quelques minutes. “La précision des données allait au-delà de nos attentes, pour être honnête, c’était une expérience surprenante et effrayante, avoue Giuseppe Giannaccare au média d’informations médicales MedPage. Une boîte de Pandore vient d’être ouverte et on ne sait pas encore comment la communauté scientifique va réagir aux mauvaises utilisations et aux menaces liées à l’IA.”

Une analyse approfondie des données peut montrer qu’elles sont inventées

Cependant, il serait peut-être possible de détecter les données fabriquées par l’IA. La revue Nature a demandé aux biostatisticiens de l’Université de Manchester Jack Wilkinson et Zewen Lu de regarder de plus près les données pour voir s’ils y trouvaient des indices de leur origine frauduleux. Et en effet, ils ont trouvé quelques erreurs, par exemple des discordances entre les prénoms de certains patients et leur sexe, ainsi qu’un manque de corrélation entre l’acuité visuelle des patients avant et après l’opération.

Mais les chercheurs italiens ripostent sur MedPage en rappelant que leurs consignes pour ChatGPT étaient très basiques et que de meilleures consignes produiraient sûrement des données plus réalistes et plus difficiles à détecter comme étant inventées. “Des prompts (les consignes données à l’IA, ndlr) mieux conçus pourraient inclure des règles plus spécifiques pour réparer ces erreurs ou d’autres failles potentielles. Dans le futur, nous serons témoins d’un tir à la corde entre les tentatives de fraude en utilisant l’IA et les systèmes de détection.” Croisons les doigts pour que ces systèmes de détection gagnent la bataille et nous évitent d’être submergés dans un océan de fausses données scientifiques.

Pour plus d’informations et d’analyses sur la Côte d’Ivoire, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here