Réparer L’Humain avec des Implants Cérébraux

14
Réparer L’Humain avec des Implants Cérébraux
Réparer L’Humain avec des Implants Cérébraux

Africa-Press – Senegal. C’est le rêve fou du milliardaire Elon Musk, qui compte sur son implant intelligent Neuralink pour survivre face à la menace de ces mêmes IA… Rassurez-vous, nous n’y sommes pas du tout. Les intelligences artificielles omnipuissantes à la Skynet dans Terminator n’ont pas encore vu le jour. Et nous ne comprenons pas suffisamment bien le cerveau humain pour prétendre fusionner notre esprit avec un ordinateur. Toutefois, il y a bien de plus en plus d’implants cérébraux qui intègrent l’intelligence artificielle, mais dans un but très différent: réparer le corps humain.

Ces interfaces cerveau-machine décodent l’activité d’une région spécifique du cerveau et utilisent cette information pour contrôler une machine telle qu’une prothèse, un fauteuil roulant ou un exosquelette. Elles permettent ainsi à une personne en situation de handicap de gagner en mobilité et en autonomie. Les avancées récentes en matière d’intelligence artificielle, notamment l’émergence de modèles de langage tels que ChatGPT, ont significativement amélioré les capacités de décodage de ces implants.

C’est notamment le cas dans une de ses utilisations les plus complexes, le décodage de la parole, où il est nécessaire de comprendre l’intention de l’utilisateur, mais aussi les règles du langage dans lequel il s’exprime. « Avec un algorithme traditionnel, qui se contente de lire l’activité cérébrale et de la traduire, la précision est beaucoup plus faible ; l’IA permet de l’améliorer substantiellement « , résume Alexander Silva, bio-ingénieur à l’Université de Californie à San Francisco (États-Unis), qui a conçu un des implants les plus performants à ce jour.

Grâce à ses 128 électrodes, celui-ci capte l’activité du cortex de la région qui gère la parole. Puis, cette activité est décodée par une intelligence artificielle générative qui prédit le mot que l’utilisateur veut prononcer ainsi que la suite de la phrase (de la même façon que ChatGPT prédit quel mot doit suivre ceux déjà écrits). Mais il ne s’arrête pas là. « L’utilisation d’un modèle de langage permet au dispositif de prédire quelle est la phrase la plus probable à partir de l’activité cérébrale du patient, mais aussi dans quelle langue il essaie de parler », révèle-t-il. Car cet implant est bilingue et peut comprendre l’anglais et l’espagnol.

La parole décryptée avec une précision allant jusqu’à 97,5 %

Il a été testé chez un Américain de 36 ans ayant perdu la capacité de parler à la suite d’un accident vasculaire cérébral (AVC) qui a paralysé les muscles liés à la parole. Or il est d’origine latino-américaine et parle en espagnol avec sa famille, mais en anglais au travail (il est défenseur des droits des patients). Les deux langues sont donc très importantes dans sa vie.

Pour s’accommoder à cette réalité, l’IA de l’implant comporte deux modules. L’un sélectionne le mot en anglais le plus probable en fonction de l’activité cérébrale du patient, puis la phrase la plus probable à la suite de ce mot. L’autre module fait la même chose en espagnol, et ensuite la phrase – et donc la langue – avec la plus haute probabilité est sélectionnée. Atteignant ainsi une précision de 88 % pour la détection de la langue et de 75 % pour la phrase en entier, selon des résultats publiés en mai 2024 dans Nature Biomedical Engineering.

En 2023, cette même équipe avait déjà présenté dans le journal Nature un implant piloté par l’intelligence artificielle qui permettait de décoder la parole à un débit de 78 mots par minute, loin encore de la vitesse d’élocution normale (de 150 mots par minute), mais bien mieux que les implants précédents, avec une précision de 75 %. Et en août 2024, une équipe de l’Université de Californie à Davis (États-Unis) a présenté dans le New England Journal of Medicine un implant avec une précision de 97,5 % (mais un débit moindre, de 30 mots par minute). « Ne pas pouvoir communiquer est tellement frustrant et démoralisant. C’est comme être piégé, expliquait à l’époque l’utilisateur de cet implant, Casey Harrell, atteint de la maladie de Charcot. Une technologie comme celle-ci aidera les personnes à réintégrer leur vie et la société. »

La précision et le débit de ces implants cérébraux vont sûrement continuer à croître, car ils auront de plus en plus de données sur lesquelles s’appuyer pour perfectionner leurs prédictions. Car la prochaine étape sera de débarrasser ces implants de leurs fils (c’est déjà le cas pour l’implant de Neuralink ou encore celui conçu par Clinatec, à Grenoble, qui pilote un exosquelette).

« Cela va permettre aux patients de les utiliser en l’absence des chercheurs, et l’implant pourra ainsi collecter des données presque en continu, ce qui permettra d’améliorer l’entraînement des IA, avance Alexander Silva. Mais il faut s’assurer que ces données seront traitées d’une façon qui respecte la confidentialité des données du patient ; c’est une discussion qu’on devra aborder rapidement. »

Cette utilisation en continu de l’implant poserait aussi un autre problème: s’assurer qu’il générera de la parole uniquement lorsque l’utilisateur veut vraiment parler ! Car la région du cortex analysée par ces dispositifs de décodage de la parole s’active aussi lorsque la personne écoute quelqu’un parler, quand elle lit un livre, et même quand elle réfléchit. Une activation inopinée de l’implant pourrait donc faire que l’utilisateur pense à voix haute malgré lui.

Éviter au modèle de langage les « hallucinations »

Un autre risque est la tendance des modèles de langage à « halluciner », c’est-à-dire à raconter n’importe quoi. L’IA de ces dispositifs fonctionne à deux niveaux: le premier décode l’activité cérébrale, et le second utilise les statistiques liées à la structure du langage pour faire ses prédictions à partir de l’activité décodée. Moins ce décodage est fiable, plus le système devra s’appuyer sur les prédictions liées au langage, augmentant la probabilité des hallucinations.

Il sera donc essentiel d’augmenter la précision du décodage, par exemple en utilisant davantage d’électrodes pour avoir une image plus exacte de l’activité et donc du mot que la personne veut prononcer. « Optimiser ce décodage réduira le poids donné au modèle de langage et pourra éviter les hallucinations », espère le bio-ingénieur.

Désormais, les chercheurs réfléchissent à rendre la parole décodée la plus naturelle possible, notamment en décryptant les mots, mais aussi les sons, afin de capter l’intonation, et donc les émotions. Puisqu’elle est couplée à des synthétiseurs de voix imitant celle de l’utilisateur, on pourra ainsi entendre si la phrase « c’est génial d’avoir de l’IA dans la tête » est dite avec enthousiasme… ou avec sarcasme.

Pour plus d’informations et d’analyses sur la Senegal, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here