Intelligence artificielle : une assistante ambiguë pour les scientifiques

2
Intelligence artificielle : une assistante ambiguë pour les scientifiques
Intelligence artificielle : une assistante ambiguë pour les scientifiques

Africa-Press – Senegal. C’est la différence mesurée par une équipe de l’hôpital d’Antibes-Juan-Les-Pins et du CHU de Nice entre le temps passé à chercher des articles scientifiques sur un thème donné avec des outils d’intelligence artificielle et celui passé avec une prospection standard sur une plateforme en ligne.

Cette évaluation, publiée en septembre 2023, portait sur l’usage de l’application mobile Juisci, qui automatise la veille en matière de littérature sur 40 spécialités médicales à partir d’algorithmes d’analyse du langage naturel. Si, dans le test, l’application a identifié 45 articles contre 184 avec une recherche standard, 48,6 % correspondaient vraiment à ce que voulaient les membres de l’équipe, contre 16,9 % avec une approche traditionnelle.

Des méta-analyses à la demande à partir de prompts

“Les publications sont agrégées à travers des milliers de sources, puis sélectionnées et filtrées selon divers critères: révision par les pairs, facteur d’impact, nombre de citations reçues”, explique Robin Roumengas, fondateur de Juisci. Ce n’est pas tout: l’application peut aussi résumer automatiquement une publication, en en respectant la structure (contexte, méthode, résultats, conclusion), avec un lien vers le contenu originel et une validation humaine.

Signe des temps, la prochaine version de l’application intégrera des modèles de langage avec un mécanisme à la ChatGPT pour fournir des méta-analyses à la demande à partir de prompts (requêtes). “On a tous passé trop de temps sur des plateformes comme PubMed à chercher des contenus. L’objectif est de consacrer ce temps à les assimiler “, commente Robin Roumengas.

“Assistant d’écriture scientifique”

De fait, l’intelligence artificielle générative est en train de devenir un véritable outil de travail pour les scientifiques, et pas seulement pour rechercher des publications. Pour en écrire aussi ! Une expérience menée au Technion, l’Institut de technologie d’Israël, a abouti à la publication fin juin 2023 d’un article sur le diabète écrit par ChatGPT.

Les chercheurs ont fourni à l’agent conversationnel d’OpenAI des informations de santé et d’hygiène de vie issues des Centres pour le contrôle et la prévention des maladies, aux États-Unis, et lui ont demandé de créer un programme pour les analyser. Il a fallu plusieurs itérations et des interventions des chercheurs, mais le chatbot a pu décrire les résultats et sa méthodologie, rédiger une conclusion, une introduction et l’habituel résumé en tête d’article.

Mais il est possible d’aller plus loin. En 2019, déjà, l’éditeur germano-britannique Springer Nature publiait un livre entier sur les batteries lithium-ion écrit par un algorithme à partir du résumé de 150 articles sur le sujet. En mars 2023, l’éditeur a renchéri avec le modèle de langage GPT-3.5. Plus question de résumer: en une journée, l’IA a généré un premier manuscrit en finance et audit à partir de prompts. “Au bout de deux heures, la première version du premier chapitre a été jugée satisfaisante et pour la suite du livre, nous avons pu aller plus vite. À la fin de la journée, nous avions 180 pages”, indiquent des porte-parole de Springer Nature à Sciences et Avenir.

La suite a été écrite plus classiquement, mais tout a été terminé en cinq mois, soit la moitié du temps habituellement nécessaire. Depuis octobre 2023, l’éditeur propose aussi un “assistant d’écriture scientifique”, Curie, aux auteurs dont l’anglais n’est pas la langue maternelle. “Le caractère philanthropique est discutable, note Guillaume Cabanac, professeur d’informatique à l’Université Toulouse III-Paul-Sabatier. Un outil permettant de produire plus aisément et plus vite des articles et ouvrages sera surtout profitable à la maison d’édition. ” Au risque d’encourager la course à la publication si souvent décriée.

Gare à la production de contre-vérités !

Quoi qu’il en soit, vérifications et corrections humaines restent indispensables. Car les IA génératives souffrent d’un mal bien connu: les “hallucinations”. Autrement dit, la production de contre-vérités, voire de contenus inventés. Expert dans la traque de la fraude scientifique, Guillaume Cabanac en fait le constat: “Chat-GPT entre dans une longue tradition d’outils aidant à éliminer les fautes, améliorer l’expression, chercher des formulations plus claires, et c’est une bonne chose. La différence, c’est qu’il peut être utilisé pour générer un contenu qui n’est pas issu des résultats obtenus par le chercheur, mais de l’entraînement de l’algorithme. ” Dans leurs règles éthiques, des éditeurs (Elsevier, Wiley), autorisent l’usage de l’IA générative par les auteurs mais à condition que ces derniers le déclarent.

Hallucination

L’arrivée de ChatGPT à l’automne 2022, puis d’autres interfaces similaires, s’est vite accompagnée du constat que ces outils répondaient parfois… n’importe quoi. Mais toujours dans une langue impeccable. C’est ce que l’on appelle des “hallucinations”. Plus prosaïquement: des erreurs ou des inventions factuelles générées par un agent conversationnel, mais présentées comme des vérités établies.

Le phénomène ne relève pas d’une intention de tromper. Il est dû au fonctionnement statistique de ces IA, aux biais présents dans les données d’entraînement et à leur absence totale de compréhension du sens des mots. Le terme prête cependant à confusion. Il tend à anthropomorphiser la machine, la fait paraître comme affectée d’un problème sensoriel ! Alors que le problème est consubstantiel à la technologie.

Pour plus d’informations et d’analyses sur la Senegal, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here