Africa-Press – Comores. INTERVIEW. L’IA générative lance un sérieux défi à l’humanité, qui nous engage à développer nos « H-qualités », explique le physicien et philosophe Alexei Grinbaum.
« Les récits technologiques sont tout aussi humains et tout aussi inhumains que les mythes qui parlent des dieux et des démons. » Dans son dernier livre au titre éloquent, Parole de machines*, le physicien et philosophe Alexei Grinbaum convoque les récits et les sagesses antiques pour nous amener à cette nécessaire « prise de conscience » : « À travers l’interaction à double sens qu’il établit avec la machine, l’homme place la parole non humaine au sein de la culture et de l’histoire qui sont les siennes. » Et de s’interroger : quel statut accorder au discours qu’aucun « sujet » n’engendre, fabriqué par une machine incapable de « comprendre » ?
Si le directeur de recherche au CEA-Saclay, spécialiste de la théorie de l’information quantique, reconnaît « le caractère inédit et stupéfiant des prouesses de la génération automatique du langage » par les chatbots, tels que ChatGPT ou Bing, c’est pour mieux nous mettre en garde face aux risques et aux dérives de ces nouveaux oracles. Il place l’éthique au cœur de sa réflexion sur ces outils : les systèmes d’IA générative peuvent d’autant mieux nous manipuler que l’on projette sur eux des sentiments et des émotions.
L’éthique de l’IA est l’un des fils rouges de la prochaine édition du Paris Legal Makers, un événement international que le barreau de Paris organise au palais Brongniart, à Paris, le 23 novembre, en partenariat avec Le Point. En clôture de cette journée d’échanges avec des personnalités du monde économique, juridique et politique, autour du thème « L’intelligence artificielle : un avenir prometteur, un engagement responsable », les experts proposeront des pistes pour construire un avenir éthique et innovant de l’IA tout en favorisant la recherche et l’innovation. Pour Alexei Grinbaum, qui participera aux Paris Legal Makers, c’est en s’interrogeant sur ce qui nous constitue en tant qu’humains que l’on pourra construire un cadre éthique propre à l’IA générative.
Le Point : Une machine dotée de « la » parole, autrement dit, de la faculté de s’exprimer par le langage articulé, signifie que l’être humain est en train de perdre le monopole de l’expression linguistique : un tournant historique, selon vous…
Alexei Grinbaum : Ce qui importe, c’est la question du sens. Tout ce que nous sommes – dans nos vies privée et publique –, nous en faisons sens à travers la langue et dans la langue. Or, les agents conversationnels parlent notre langue, la manipulent et nous manipulent à travers elle, sans qu’il soit possible de distinguer sa production de celle d’un humain. Les chatbots font des phrases syntaxiquement correctes et souvent plausibles sémantiquement, alors que, en réalité, les sorties de la machine ne sont que des combinaisons de caractères générées au travers d’un calcul de nombres ; autrement dit, ce qui relie l’entrée d’une requête à la « réponse » de la machine ne passe pas par la signification. Mais ces sorties sont si plausibles que cela nous conduit à faire des projections spontanées de qualités humaines sur la machine, comme la connaissance, les émotions ou même la conscience. Nos cerveaux perçoivent naturellement le sens des phrases qui sortent de la machine, de la même manière que l’on pense le sens de celles prononcées par des humains.
Comme les oracles ou les paroles des anges, la machine peut nous influencer émotionnellement et psychologiquement.
Un progrès aussi exaltant qu’inquiétant…
Il est fascinant de constater une telle dextérité de l’outil à manier notre langue sans passer par le sens humain ! Donc, en effet, nous avons perdu le monopole de l’expression linguistique. Mais ce qui est aussi fascinant, c’est la capacité de la machine à faire émerger des phrases inattendues, qui créent la surprise, provoquent la peur ou la joie, alors que la machine est dénuée d’intentions. La question est alors : quel sera l’effet, sur nous, de cette expression asémantique qui suscite de notre part des projections spontanées ?
C’est ce que vous expliquez : l’utilisateur a tendance à projeter des affects sur la machine, à l’anthropomorphiser comme s’il s’agissait d’un ange ou d’un dieu antique. D’autant que, en disant « je », le chatbot « se cisèle une porte d’entrée dans l’être et son interlocuteur humain lui attribue spontanément une identité », faites-vous observer.
En effet, comme les oracles ou les paroles des anges, la machine peut nous influencer émotionnellement et psychologiquement. Si on lui donne un nom, comme Adam l’a fait en nommant les animaux et les oiseaux, on établit avec elle une relation à travers la langue. La machine fera alors partie de notre réalité, et sera capable de nous influencer, voire de nous manipuler.
Le « je » de la machine n’existe que par projection parce qu’aucun sujet ne se cache derrière l’écran. Mais, pour l’utilisateur du chatbot, le virtuel et le réel se fondent en un seul monde. Je donne souvent l’exemple de l’appli Replika, qui permet de se fabriquer un ami virtuel, selon son goût, ses désirs, etc. Cet ami est disponible 24 h/24. Des milliers de jeunes sont addicts à cette appli qui joue, pour beaucoup d’entre eux, un rôle thérapeutique ou celui de souffre-douleur. Des questions se posent : l’ami virtuel peut-il vous contredire ? Peut-il vous inciter à vous engager dans un projet maléfique ?… Je pense que ce genre d’applis ne doit pas être interdit, mais il me paraît nécessaire de l’encadrer.
L’apparente autonomie de ces agents conversationnels nous laisse croire qu’ils sont « libres ». En interrogeant la machine, en remettant en question ses réponses, on pourrait presque se retrouver dans un dialogue socratique ?
Absolument. Lorsqu’on pousse l’outil dans ses retranchements, la qualité des sorties est extraordinaire. Ce qui est important, c’est l’ingénierie des prompts (requêtes que l’utilisateur soumet à la machine), qui ne doivent pas être de simples phrases courtes. Il faut dire à la machine « Raisonne étape par étape », même si elle est incapable de raisonner ! Étrangement, le simple ajout de cette phrase permet d’améliorer la qualité des réponses.
Ces machines parlent de manière imprédictible, et à cet égard elles nous ressemblent. Elles imitent le libre arbitre humain de manière très convaincante. On pourrait même les qualifier d’« individus numériques ». Et ceci est d’autant plus vrai qu’à une même requête elle n’offre jamais la même réponse ! Mais un libre arbitre imité à travers un calcul très complexe, est-ce du « vrai » libre arbitre ? Et que veut dire « vrai » ? Si la machine induit chez l’utilisateur une illusion parfaite de posséder des qualités que ce dernier projette sur elle, à quoi sert de savoir si elle les possède « en vrai » ou pas, dès lors que son comportement linguistique est parfaitement efficient ? Mais il y a aussi une différence fondamentale. La machine est fonctionnelle, elle met en œuvre un calcul décidé par son concepteur. Elle n’est donc pas libre de changer de finalité.
« Le manque de distinctions entre un texte écrit par un être humain et celui généré́ par un système d’IA est un problème éthique majeur », souligne le Comité national d’éthique du numérique dont vous êtes l’un des rapporteurs. Comment peut-on construire une éthique de la responsabilité des machines ?
L’introduction de codes en filigrane (watermarks) permettrait de distinguer la production d’une machine de celle d’un auteur humain. Mais ces codes ne sont pas faciles à mettre en œuvre. Ils doivent être robustes et interopérables, et sur ce point, nous avons des progrès à faire. Pour connaître la provenance des textes, il est nécessaire de prévoir cette obligation de filigranes dans la réglementation européenne.
Avec l’IA générative, on ne sait pas ce qui se passe en coulisses, derrière l’interface. Le système est si complexe que même les concepteurs ne peuvent pas prédire les sorties que génère la machine. Or, les méthodes de contrôle actuelles ne bloquent pas complètement les sorties potentiellement « toxiques » du système, comme les insultes. On ajoute des filtres et des contrôles par conception, mais ils ne pourront jamais garantir l’absence totale de problèmes.
La machine est incapable de juger du vrai ou du beau. Seul l’homme a le discernement nécessaire pour cela.
Comment éviter de se laisser manipuler par ces systèmes d’IA générative ?
Certainement pas en appliquant le RGPD [Règlement général sur la protection des données, NDLR], qui démontre dans ce domaine sa totale insuffisance. Même si l’utilisateur est informé qu’il interagit avec un chatbot, il se laissera influencer par les paroles de ce dernier tout en sachant qu’il s’agit d’une machine. C’est la force de la langue ! Voilà pourquoi la génération des textes aura une influence bien plus forte sur l’humanité sur les systèmes d’IA qui fabriquent des images ou du son.
« L’homme qui interagit avec la machine l’imite parfois inconsciemment », écrivez-vous. Dans quel sens ces machines parlantes, omniscientes, feront-elles évoluer la condition humaine ? L’être humain est-il amené à devenir une machine pensante ?
Ce que notre cerveau est capable de faire et de concevoir a évolué depuis le début de l’ère technologique. C’est une inquiétude légitime de s’interroger sur la façon dont ce type de bouleversement va continuer, et impacter l’être humain. Déjà, Platon dénonçait une invention pitoyable en parlant de l’écriture. Plus tard, on s’est méfié de l’imprimerie et, plus tard encore, on a dit que, avec les smartphones et le GPS, notre mémoire et notre capacité de repérage dans l’espace diminuaient… Avec les machines parlantes, nous allons perdre certaines capacités, mais nous allons en gagner d’autres. Une machine reçoit à travers les textes la description d’un monde qui ressemble au nôtre, mais il y a des limites.
En procédant par simple imitation, la machine est incapable de juger du vrai ou du beau. Seul l’homme a le discernement nécessaire pour cela : c’est ce que j’appelle des « H-qualités », qui restent exclusivement du ressort humain. La machine peut donner des idées, être très créative, mais elle ne sait pas ce qui est magnifique dans un poème qu’elle génère. Bien écrire, écrire dans un style élaboré et élégant, par exemple à la manière de Pascal Quignard avec un zeste de Proust, seul l’homme est capable de dire que c’est beau. À lui de mettre son cerveau au service de l’apprentissage de ces « H-qualités » et d’apprendre donc à valoriser sa signature humaine. C’est le défi qui nous attend en tant qu’humanité : soit on se laisse influencer par la moyenne statistique des sorties de la machine, et c’est un véritable danger pour la culture humaine, soit on s’élève au-dessus de cette banalité. À nous d’utiliser notre discernement, notre jugement, pour apprécier davantage le vrai et le beau.
Pour plus d’informations et d’analyses sur la Comores, suivez Africa-Press