Intelligence artificielle consciente : le retour d’un fantasme

Intelligence artificielle consciente : le retour d'un fantasme
Intelligence artificielle consciente : le retour d'un fantasme

Africa-Press – Burkina Faso. Cet article est extrait du mensuel Sciences et Avenir – La Recherche n°914, daté avril 2023.

Près de 100 millions d’utilisateurs en deux mois ! Dans la courte histoire d’Internet, ChatGPT fait voler en éclats tous les records d’adoption d’un nouveau service (TikTok avait atteint ce seuil en neuf mois, Instagram en plus de deux ans). Depuis sa mise en ligne en novembre 2022, cet agent conversationnel (chatbot) ne cesse de fasciner.

Il a été conçu par la société OpenAI, dont Sciences et Avenir évoquait la création, entre autres par un certain Elon Musk, dès 2016 : “Un organisme au soutien de projets d’intelligences artificielles ‘amicales'”, écrivions-nous alors (lire n° 838). Aujourd’hui, ChatGPT manifeste une aisance langagière inédite. On en viendrait presque à se demander s’il comprend bel et bien ce qu’il dit et ce qu’on lui dit… La question est loin d’être de pure forme.

En août 2022, le Center for Data Science de l’Université de New York (États-Unis) a publié les résultats d’un sondage effectué auprès de 327 experts en traitement du langage naturel, dans le contexte de l’apparition des grands modèles de langage et des intelligences artificielles (IA) génératives capables de traiter un volume gigantesque de données, tel GPT-3 à la base de ChatGPT. Surprise : pour 51 % d’entre eux, une IA pourrait un jour être douée d’une vraie compréhension. Et 67 % estiment que cela pourra être réalisable en l’exposant à d’autres types de données (comme des images) complétant le texte. Ce n’est pas tout : à 57 %, ces spécialistes voient les progrès actuels comme “un pas significatif vers le développement d’une IA générale”. C’est-à-dire une IA équivalente à l’intelligence humaine.

De là à l’imaginer dotée d’une conscience d’elle-même, il n’y a qu’un pas… qu’un ingénieur de Google, Blake Lemoine, a allègrement franchi ! En juin 2022, alors qu’il travaillait sur LaMDA, la technologie maison de chatbot, il a affirmé qu’elle avait montré sa capacité à ressentir et pouvait prétendre au statut de vraie personne. À l’appui de ses dires, il a publié de larges extraits de ses échanges avec LaMDA… avant d’être licencié. Pour Google, l’ingénieur a outrepassé les précautions de rigueur, en même temps qu’il a enfreint la politique de confidentialité de la société.

Difficile de définir ce qu’est la conscience

En réalité, la question d’une conscience de la machine est aussi ancienne que la conception des algorithmes. Le mathématicien britannique Alan Turing en 1950 et les fondateurs de l’intelligence artificielle comme discipline de recherche en 1956 envisageaient déjà que la machine devienne un jour l’égal de l’humain. Et depuis 2012, les réseaux de neurones et l’intelligence artificielle dite statistique (le deep learning), qui apprennent à partir de données pour accomplir une tâche, font des merveilles. Mais des outils aussi fascinants que ChatGPT ou les générateurs d’images à partir d’instructions textuelles comme Dall-E 2, d’Open AI également, ou Midjourney (voir S. et A. n° 909, novembre 2022), marquent un nouveau cap. “C’est encore accentué par le fait que ces applications sont liées au langage, souligne Sébastien Konieczny, directeur de recherche au Centre de recherche en informatique de Lens (Université d’Artois, CNRS). Auparavant, quand une machine arrivait à résoudre un problème de raisonnement ou battait un champion d’échecs ou de go, c’était impressionnant mais cela s’arrêtait là. Cette fois, la machine parle : on peut très vite fantasmer. ”

Or, ces progrès agissent surtout comme un leurre. D’abord, parce qu’il est difficile de définir ce qu’est la conscience. “Les spécialistes de neurosciences sont extrêmement prudents dans l’utilisation de ce terme. Ils travaillent sur les circuits neuronaux, les différentes fonctions du cerveau, le système nerveux, mais on voit très peu de publications sur le concept de conscience. Et sur le plan philosophique, c’est tout aussi flou “, remarque Raja Chatila, chercheur à l’Institut des systèmes intelligents et de robotique (CNRS, Sorbonne Université, Inserm).

Un outil fondé sur le modèle statistique

Dans son acception la plus simple, la conscience d’une IA combinerait l’aptitude de cette dernière à se situer dans le temps et l’espace, à comprendre ce qu’elle fait et ce qu’elle dit et à en évaluer les conséquences. “Même ces choses-là, nous ne parvenons pas à construire des systèmes qui les réalisent de manière satisfaisante “, prévient Jean-Paul Delahaye, du Centre de recherche en informatique, signal et automatique de Lille. À l’Université Columbia de New York (États-Unis), les chercheurs du Creative Machines Lab estiment néanmoins pouvoir simuler une sorte de conscience en l’associant à la notion de corps, en l’occurrence celui de robots. Ils travaillent sur la perception que des machines matérielles – et pas seulement logicielles – peuvent avoir de leur propre morphologie dans l’espace. Mais cette approche reste encore réductrice (voir encadré ci-dessous).

L’histoire de l’IA montre que les prévisions accompagnant chaque progrès scientifique ont rarement été corroborées par les faits. Ce qui tend à prouver que le fonctionnement du cerveau humain et ce qu’est l’intelligence humaine sont encore mal compris. Difficile dans ces conditions de pouvoir les simuler parfaitement par informatique. “Concernant l’IA, poursuit Jean-Paul Delahaye, nous n’avons pas imaginé à quel point certaines choses étaient difficiles, en particulier faire des machines dotées d’une sorte de conscience ou même faire des robots capables de conduire correctement une voiture. À l’inverse, nous n’avions pas imaginé que des robots traduiraient à peu près correctement certains morceaux de textes, joueraient aux échecs et battraient des champions du monde. ”

Mais l’écueil principal à l’avènement d’une IA consciente est paradoxalement lié aux progrès fulgurants réalisés depuis dix ans avec l’approche statistique des réseaux de neurones. Les résultats sont tels que ces méthodes ont fini par mobiliser un très grand nombre de chercheurs (et de financements) et par devenir, à tort, quasi synonymes d’intelligence artificielle. “Les réseaux de neurones sont très bons pour faire de la perception, de l’interprétation d’images, de textes, éventuellement de la génération de contenus. En la matière, ce sont des outils dont on ne peut pas se passer, résume Sébastien Konieczny. Ils apprennent et aboutissent à un résultat, mais globalement on ne sait pas expliquer pourquoi. ”

Outre le développement d’algorithmes spécifiques, l’essor de ces méthodes est étroitement lié à Internet et à la profusion des données qu’on y trouve. C’est ce qui permet de constituer d’énormes bases d’images, de sons, de textes pour entraîner les algorithmes. “Ils sont programmés pour chercher des corrélations, explique Raja Chatila. Cela va aboutir à ce qu’on appelle des prédictions. Quand une nouvelle donnée arrive, elle est interprétée compte tenu de la corrélation construite par le modèle : l’algorithme va reconnaître un verre parce que l’objet ressemble aux images de verres déjà vues. Mais il ne sait pas ce qu’est un verre. ”

En cause : la difficulté à tenir compte du contexte. En matière de traduction, par exemple, un outil fondé sur les méthodes statistiques ne vérifie pas ce qu’il a traduit dans les pages précédentes comme le ferait un humain, pour traquer d’éventuelles incohérences. Il est aussi très difficile d’intégrer des règles et des contraintes à un modèle statistique, là où un humain parle et agit selon des normes sociales et légales. D’où des péripéties retentissantes comme celle du chatbot Tay, de Microsoft, sur Twitter en 2016. En discutant avec lui, les internautes avaient réussi, à dessein, à lui faire tenir des propos racistes et sexistes. Mi-novembre 2022, c’est l’outil Galactica de Meta qui était pris en défaut. Des chercheurs ont pu lui faire créer des textes vantant les bienfaits de manger du verre pilé ou les avantages de l’antisémitisme. Ces applications ne savent pas, littéralement, ce qu’elles disent.

Des robots pilotés par “automodélisation”

Un robot qui a l’image de lui-même : à la croisée de l’informatique, des sciences physiques et de la biologie, le Creative Machines Lab de l’Université Columbia (États-Unis) développe le concept d’automodélisation. Le principe consiste à donner à un robot une sorte de perception de ses mouvements. Le laboratoire a détaillé son dernier projet en juillet 2022 dans Science Robotics.

Lors d’une phase d’apprentissage, un bras robotisé à quatre degrés de liberté s’agite au hasard en tous sens pendant quelques secondes, filmé sous cinq angles différents. À chaque posture sont enregistrés les angles de chaque articulation et une modélisation 3D en nuage de points de la machine. Le tout constitue une base de données qui entraîne le robot à savoir comment va se traduire dans l’espace tel mouvement d’articulation. Sans capteur, il parvient à obtenir une image entière de lui-même avant de se mouvoir, en une simulation de proprioception. Lors des tests, la machine a réussi non seulement à réaliser les tâches visées, mais aussi à le faire en évitant un obstacle. Pour l’équipe, ce dispositif est “similaire à la faculté naturelle de l’humain à ‘voir dans sa propre tête’ si son corps passe dans un espace étroit “.

Le bras robotisé attrape des billes pour les déposer dans un verre grâce à la perception qu’il a de sa propre morphologie. Crédit : CREATIVE MACHINE LAB

Simuler un raisonnement grâce à l’approche symbolique

C’est pourquoi certains chercheurs insistent sur l’intérêt d’intensifier les travaux en utilisant une autre approche : l’intelligence artificielle dite symbolique. Dans les laboratoires, elle était même l’approche dominante avant les succès de l’apprentissage profond. “L’IA symbolique fonctionne selon des descriptions et des règles écrites bien précises que le programmeur comprend “, note Jean-Paul Delahaye. Le code même permet de savoir pourquoi une IA a dit ou fait une chose, pourquoi elle a raison ou elle se trompe. Ce qui revient à simuler un raisonnement.

Les voitures autonomes sont loin de fonctionner uniquement avec du deep learning. Leur système embarque des règles de simulation physique ou le code de la route, qui relèvent de l’IA symbolique. Cette approche serait-elle plus à même de simuler une conscience des machines ? La clef, si elle existe, se trouve probablement dans une hybridation symbolique-statistique. En attendant d’y parvenir, demeure une question : qu’apporterait une IA consciente ? “Le but de l’IA est surtout de fournir des programmes utiles, estime Sébastien Konieczny. Si un chatbot génère du texte de manière naturelle, on peut imaginer de l’intégrer à un robot compagnon, et ce sera plus agréable et plus utile pour l’interaction que de converser avec Siri. Qu’il soit vraiment conscient, c’est plutôt une question philosophique. ”

En 1966 déjà, l’effet Eliza

La propension à prêter conscience et ressenti à une IA porte un nom : l’effet Eliza. Conçu en 1966 par Joseph Weizenbaum, chercheur en informatique au Massachusetts Institute of Technology (États-Unis), Eliza était un agent conversationnel en langage naturel simulant un psychothérapeute rogérien : une méthode qui consiste à répéter, sous forme de questions, ce que vient de dire un patient pour l’amener à préciser ses propos. Surpris de voir que des utilisateurs croyaient vraiment parler à un interlocuteur doué d’empathie, Joseph Weizenbaum publiera dix ans plus tard “Computer Power and Human Reason” pour tempérer les fantasmes et insister sur les limites de l’IA.

Pour plus d’informations et d’analyses sur la Burkina Faso, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here