Une Nouvelle Forme de Créativité par Agents IA

2
Une Nouvelle Forme de Créativité par Agents IA
Une Nouvelle Forme de Créativité par Agents IA

Africa-Press – Gabon. L’intelligence artificielle (IA) remplacera-t-elle les chercheurs? L’IA est de plus en plus utilisée en recherche, pas seulement comme outil (comme le célèbre Alphafold), mais aussi pour aider à la génération d’hypothèses scientifiques et à l’élaboration du plan expérimental nécessaire à tester ces hypothèses. Au point que certains prédisent déjà qu’une IA pourrait bien recevoir le prix Nobel dans le futur pour ses découvertes scientifiques, alors que d’autres affirment au contraire que ces technologies ne pourront jamais remplacer l’humain.

Une nouvelle étude vient agiter ce débat, non pas à cause de ces résultats, mais de ces auteurs. Publiée le 29 juillet 2025 dans la revue Nature, cette recherche est tout à fait révolutionnaire, car elle a été réalisée presque exclusivement par des intelligences artificielles, avec très peu d’intervention humaine. Pour cette étude, James Zou, chercheur en sciences des données biomédicales à l’Université de Stanford, a mis en place un laboratoire virtuel, composé de plusieurs agents IA, chacun spécialisé dans un domaine scientifique. À la manière d’un vrai laboratoire, ces agents se réunissaient pour discuter des meilleures façons de répondre à une question scientifique, jusqu’à parvenir à la conception de nanocorps (de petits anticorps) qui reconnaissent et neutralisent des variants du coronavirus responsable du Covid-19. Pour mieux comprendre cette démarche inédite, Sciences et Avenir s’est entretenu avec James Zou.

Sciences et Avenir: D’où vient l’idée d’un laboratoire virtuel?
James Zou: Je voulais créer une équipe d’agents qui reflète en quelque sorte mon laboratoire physique à Stanford, et la motivation derrière cela est que ce laboratoire virtuel pourrait me permettre de réaliser tous les projets et idées que je n’ai pas le temps de faire moi-même. C’est pourquoi, avec mes collègues, nous avons créé cette structure d’équipe où nous avons un agent directeur (comme le directeur d’un laboratoire) et un groupe de différents sous-agents ou agents étudiants avec des expertises différentes.

Pourquoi utiliser plusieurs IA avec des expertises différentes plutôt qu’une seule IA plus générale?

Nous avons constaté que nous obtenons en fait des résultats scientifiques plus créatifs et de meilleure qualité lorsque plusieurs agents IA travaillent ensemble plutôt que lorsque nous avons un seul agent IA qui essaie de tout faire tout seul. Ces multiples agents IA ont des perspectives et des expertises différentes. Lors des réunions de groupe, où différents agents doivent discuter et élaborer des plans de recherche, ces derniers ont des désaccords, car ils ont des perspectives différentes. Ils proposent des idées diverses. Cela aboutit à un raisonnement beaucoup plus approfondi et aussi plus créatif que si nous avions simplement essayé de mener une expérience où un seul agent résoudrait le problème.

« Nous donnons des instructions différentes à chaque agent »
Et comment ces agents ont-ils été entrainés?

Nous donnons des instructions différentes à chaque agent et nous les équipons également d’outils adaptés à leur domaine. Par exemple, nous avons un agent spécialisé en biologie computationnelle. Pour l’aider à travailler dans ce domaine, nous lui permettons d’utiliser des outils tels qu’AlphaFold pour étudier les structures protéiques. Les autres agents, qui ont des expertises différentes, ont accès à divers outils adaptés à leur domaine.

Le réglage fin des agents consiste à leur permettre de récupérer et de télécharger des articles pertinents pour leur domaine. Par exemple, l’agent spécialisé en immunologie peut trouver des articles sur les maladies récentes. Il peut ensuite télécharger et lire ces articles. Nous permettons ensuite aux modèles d’ajuster leurs paramètres afin qu’ils puissent se mettre à jour et intégrer de nouvelles connaissances.

Les agents doivent donc trouver eux-mêmes la documentation et les articles qui leur sont nécessaires?

Nous leur indiquons certains sujets qu’il serait utile qu’ils approfondissent. Par exemple, l’un de ces sujets pourrait porter sur les dernières variantes de la maladie. Les agents devront alors concevoir leur propre programme d’apprentissage en recherchant des articles pertinents, puis en les téléchargeant et en les lisant.

Avec ces différents agents, aux parcours et formations multiples, comment se sont déroulées les réunions?

Pour chacune des réunions, il y a un agent directeur qui annonce l’ordre du jour, avec les questions qu’il souhaite aborder. Il crée donc cet ordre du jour et le partage avec les autres agents. Ces derniers prennent ensuite la parole les uns après les autres pour apporter leurs idées. C’est donc un peu similaire à nos réunions humaines.

Quelle a été l’implication humaine dans cette partie de la réflexion?

Nous pouvons indiquer aux agents certains des projets de haut niveau qui nous intéressent. Par exemple, dans l’article publié dans la revue Nature, nous avons mené une étude pour laquelle nous avons précisé aux agents: « nous voulons concevoir de nouvelles molécules qui reconnaissent les variants récents du Covid ». Il s’agit donc d’une description générale que nous donnons aux agents. Ceux-ci s’en inspirent ensuite pour élaborer leurs propres plans de recherche. Nous ne déclarons pas aux agents: « vous devez faire ceci pour concevoir ces molécules », nous leur donnons une orientation générale, puis nous les laissons faire preuve de créativité pour élaborer leur plan de recherche et le mettre en œuvre.

« Il y aura beaucoup de place pour des collaborations intéressantes entre les humains et l’IA »
Certains agents se sont-ils révélés plus utiles que d’autres, ou certaines conversations ont-elles été plus enrichissantes que d’autres?

Je pense que tous les agents ont apporté une contribution substantielle à ce projet. Nous avons notamment suivi la fréquence à laquelle les différents agents prenaient la parole lors des discussions et des réunions du laboratoire virtuel. Il s’est avéré que l’agent de biologie computationnelle était celui qui parlait le plus, ce qui me semble logique, car, dans le cadre du projet de conception de molécules pour reconnaitre le coronavirus, l’agent de biologie computationnelle doit effectuer un travail considérable pour élaborer un plan de recherche, par exemple sur la manière de concevoir ces molécules.

Un autre agent important était l’agent d’apprentissage automatique. Son travail consiste à écrire le code pour les autres. Par exemple, les agents de biologie computationnelle formulent l’instruction: « implémentez ce nouvel algorithme », puis l’agent d’apprentissage automatique écrit le code. Il joue donc également un rôle essentiel.

Dans cette étude, la participation humaine était minime. Pensez-vous que ce soit l’avenir de la recherche?

Je pense qu’il y aura beaucoup de place pour des collaborations intéressantes entre les humains et l’IA dans le domaine de la recherche. Cela dépendra beaucoup du type de recherche. Même dans le laboratoire virtuel, les agents IA ne réalisent pas leurs propres expériences en laboratoire physique. Les collaborateurs humains restent essentiels pour cette partie, pour fabriquer ces nanocorps et les tester dans le laboratoire, dans le monde réel, puis fournir les résultats de ces expériences aux agents. À l’avenir, je pense que le rôle des chercheurs humains restera essentiel. La différence avec aujourd’hui est que les chercheurs humains seront assistés par ces agents scientifiques IA. Mais nous devrons toujours fournir des conseils et des retours à ces agents.

On pourrait voir les choses autrement, à savoir que les humains deviendraient les assistants de ces agents. Comme vous le dites, ils auront besoin de « mains » pour réaliser les expériences. Les humains seront donc peut-être les techniciens qui réaliseront les manipulations, mais l’idée viendra des agents. N’est-ce pas un risque?

Je pense que cela dépend vraiment de la façon dont nous concevons les systèmes. Par exemple, la manière dont nous avons mis en place le laboratoire virtuel est telle que l’humain reste le superviseur général. Et nous pouvons toujours prendre les décisions finales. Donc, en ce sens, nous sommes en quelque sorte les gestionnaires, et nous avons ce laboratoire d’agents IA pour s’occuper davantage de la mise en œuvre et de la conception, mais nous pouvons fournir des commentaires lorsque cela est nécessaire.

Et comment avez-vous géré les problèmes tels que les hallucinations dans ces modèles?

Les agents commettent des erreurs. Nous avons donc pris certaines mesures pour réduire les hallucinations et ces erreurs. L’une d’entre elles consiste à organiser plusieurs réunions en parallèle. Ainsi, pour chaque décision scientifique, les agents discutent cinq fois en parallèle, puis tentent de parvenir à un consensus, ce qui est souvent plus fiable que d’organiser une seule réunion.

Une autre mesure très utile a été de mettre en place un agent critique scientifique, dont le travail consiste à analyser les réponses de tous les autres agents. Cet agent critique est très utile pour détecter les bugs chez les autres agents et réduire les hallucinations. La troisième chose que nous avons faite a été de permettre aux agents d’utiliser des outils spécifiques à leur domaine, tels qu’AlphaFold. Ils doivent écrire du code pour exécuter et mettre en œuvre ces outils. Cela s’avère également très utile, car lorsque les agents doivent utiliser ces outils externes, ils sont beaucoup moins susceptibles d’avoir des hallucinations, car les résultats de ces outils sont scientifiquement beaucoup plus objectifs.

« Je considère ces nouvelles avancées réalisées par les agents comme une forme de créativité »
Dans cette étude, la plupart de la recherche a été effectuée par les agents IA. Pensez-vous qu’à un moment donné, les revues accepteront les agents IA comme auteurs d’une étude?

Actuellement, presque toutes les revues n’autorisent pas l’IA à être co-auteur des articles. Je pense que cela va créer une incitation inappropriée qui poussera les chercheurs humains à cacher l’implication de l’IA ou à ne pas l’utiliser. Mais de plus en plus de chercheurs humains trouvent l’IA très utile. Ils peuvent désormais l’utiliser pour écrire une grande partie de leur code, analyser des données ou trouver des articles pertinents. Je pense donc que nous allons vers un avenir où les articles de recherche auront probablement des humains et l’IA comme coauteurs.

Certains chercheurs ont déclaré que les agents IA n’auront jamais la créativité dont peuvent faire preuve les humains. Qu’en pensez-vous?

Je pense qu’il est toujours potentiellement dangereux d’affirmer avec autant de certitude que certaines choses n’arriveront jamais, en particulier lorsque les nouvelles technologies évoluent si rapidement. Il est difficile de savoir ce qui va se passer dans les cinq prochaines années, et encore moins dans les 100 prochaines années. Je pense donc que nous n’en savons tout simplement pas assez pour affirmer que quelque chose n’arrivera jamais.

En même temps, je pense qu’il existe de plus en plus de preuves que l’IA est capable de résoudre des problèmes vraiment intéressants et importants. Par exemple, dans notre article publié dans Nature, l’IA a mis au point un nouveau pipeline informatique (chaîne de traitement), différent de ce qui avait été publié auparavant. Et en tirant parti de ce pipeline, les agents IA sont capables de concevoir des nanocorps entièrement nouveaux, qui sont également différents de ce qui avait été conçu auparavant. Il est difficile de définir exactement ce qu’est la créativité, mais je considère ces nouvelles découvertes et ces nouvelles avancées réalisées par les agents comme une forme de créativité.

Pour plus d’informations et d’analyses sur la Gabon, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here