Africa-Press – CentrAfricaine. Rien de plus secret que nos pensées… mais plus pour longtemps. Car les neurotechnologies avancent à toute vitesse, éclairant le moindre coin d’ombre de notre esprit. Désormais, il est possible de deviner le mouvement qu’une personne paralysée voudrait réaliser ou de décoder la parole de celles qui ne peuvent plus parler. Comment? Grâce à une panoplie de dispositifs sondant notre activité cérébrale, qu’ils soient invasifs -implants cérébraux – ou non invasifs, comme l’électroencéphalographie (EEG) ou l’imagerie par résonance magnétique (IRM). Ainsi récoltées dans le cerveau, ces données sont ensuite analysées par des intelligences artificielles (IA) de plus en plus performantes, qui réussissent à « lire » ce que l’on pense et à « voir » ce que l’on imagine.
L’exemple le plus frappant de ces récentes avancées est une technique nommée « sous-titrage de l’esprit » (mind captioning, en anglais) dévoilée en novembre 2025. Elle permet de générer des sortes de sous-titres de nos pensées visuelles, ce à quoi l’on pense, sans utiliser le langage. Traduisant ainsi ces images de l’esprit en texte, comme on pourrait le faire pour raconter un film à un malvoyant. « Le but principal de cette méthode est de comprendre comment le cerveau se représente l’information visuelle, afin de mieux élucider les mécanismes cérébraux, explique son créateur, Tomoyasu Horikawa, chercheur dans l’entreprise japonaise de télécommunications NTT. Mais il a été très intéressant de découvrir que ce sous-titrage réussit à générer une description textuelle d’un contenu visuel sans même utiliser le réseau neural impliqué dans le langage. »
Son approche, présentée dans la revue Science Advances, repose sur une IA qui analyse une séquence d’images et en génère une description sous la forme de sous-titres. Ce modèle de langage est entraîné pour ajouter progressivement des mots décrivant les éléments d’une image et la manière dont ces éléments interagissent (par exemple, l’interaction entre une personne et un chien). Mais, à la différence de ChatGPT ou Llama, ce modèle ne prédit pas seulement le mot suivant dans une phrase, mais aussi ceux qui manquent, en y ajoutant des mots-clés décrivant l’image. Cette méthode, nommée modélisation de langage masqué (ou masked language modeling , MLM), ajoute pas à pas toutes les descriptions nécessaires dans une même phrase pour avoir une bonne idée de ce qui passe à l’écran. Ces phrases associées à des séquences d’images ont ensuite été utilisées pour entraîner une autre IA qui devait les associer à l’activité cérébrale d’une personne en train de regarder ces mêmes images.
Pour cela, Tomoyasu Horikawa a utilisé l’IRM fonctionnelle, technique non invasive qui permet d’analyser le flux sanguin dans le cerveau et savoir ainsi quelles aires sont activées. Grâce à cet entraînement, le logiciel parvenait à inférer les images que l’utilisateur observait à partir de son activité cérébrale et à identifier la vidéo regardée, avec un taux de réussite bien supérieur à celui qui serait dû au pur hasard. Dit autrement, les sous-titres générés à partir de l’activité cérébrale du participant sont comparés à ceux générés par l’IA pour décrire ces mêmes vidéos, et ainsi trouver à quelle vidéo les sous-titres cérébraux correspondent, et donc quelle vidéo la personne regarde. Chose étonnante, ces résultats peuvent être obtenus même sans prendre en compte l’activité issue des régions impliquées dans le langage, c’est-à-dire que c’est vraiment la pensée visuelle qui est décodée. Plus intrigant encore, cette méthode parvient à dévoiler les images qu’un participant visualise en se souvenant d’une des vidéos observées précédemment, offrant un accès possible à notre imagination. « Ce mind captioning est probablement une révolution supplémentaire aux techniques déjà existantes, affirme Hervé Chneiweiss, chercheur au Centre de neuroscience de Sorbonne Université et président du comité d’éthique de l’Inserm. Ce qui était possible avec des systèmes implantés en contact direct avec le cerveau devient possible maintenant même avec des systèmes externes très lents, comme l’IRM fonctionnelle, qui nécessite deux à trois secondes pour capturer une image. »
Une tendance à générer les descriptions les plus typiques
Cette révolution, fruit de l’intelligence artificielle, s’accompagne nécessairement de limites. « Ce modèle de sous-titres peut avoir des biais, comme une tendance à générer les descriptions les plus typiques. Par exemple, si la personne voit des images qui montrent une personne qui mord un chien: dans son entraînement, le modèle a probablement vu plus souvent l’interaction inverse, c’est-à-dire un chien qui mord une personne, et donc il pourrait se tromper et utiliser cette information plus récurrente lors de son interprétation de l’activité cérébrale, illustre Tomoyasu Horikawa. Tous les modèles ont des biais en fonction des données utilisées pour leur entraînement, on ne peut pas l’éviter complètement. Donc on doit bien comprendre que ces sous-titrages sont uniquement une interprétation de la pensée de la personne, mais pas forcément sa pensée réelle. » Une autre étude, publiée en août 2025 dans Cell , montre que même les pensées les plus intimes ne sont plus à l’abri. Des chercheurs de l’université Stanford, aux États-Unis, ont mis en évidence que les implants cérébraux normalement utilisés pour décoder la parole peuvent aussi « lire » ce que l’on pense. Or, des dizaines de personnes dans le monde portent actuellement l’un de ces dispositifs, principalement pour aider celles qui sont paralysées à communiquer. Ces interfaces cerveau-machine enregistrent l’activité des neurones qui contrôlent les muscles nécessaires à la parole, et infèrent ce que la personne veut dire. L’utilisateur doit donc vouloir exprimer quelque chose (faisant l’effort d’essayer de remuer ses muscles) pour que cela soit transcrit par le dispositif. Mais cette nouvelle recherche montre que ces dispositifs peuvent aussi décoder la « parole interne », celle qu’on entend par exemple lorsqu’on lit en silence ou qu’on essaye d’enregistrer une information en la répétant dans sa tête.
Selon cette étude, cette parole interne (ce que les utilisateurs pensent) et la « vraie » parole (ce qu’ils veulent dire) utilisent les mêmes neurones, dans la même région du cortex lue par l’implant, mais à des niveaux différents. La différence étant que la parole interne et la lecture en silence entraînent une activation plus faible de ces neurones. Comme s’il y avait un seuil d’activité à partir duquel ces neurones comprennent que l’utilisateur veut vraiment dire ces mots à voix haute, envoyant alors cette information vers les muscles impliqués dans la parole.
Un mot de passe pour protéger ses pensées
Pour protéger les pensées intimes des participants de l’étude, les chercheurs ont mis en place un système de sécurité activé par un mot de passe. Le décodage de l’implant ne s’active que si l’utilisateur pense à ce mot, donnant ainsi son approbation pour que sa parole, y compris sa parole interne, soit décodée. Un premier pas vers la recherche d’un équilibre entre l’utilisation de neurotechnologies à des fins thérapeutiques et la nécessaire sauvegarde de l’intimité de l’utilisateur. « Selon l’OMS, 45 % de la population mondiale est affectée par une maladie du cerveau, allant de choses très simples, comme la migraine, jusqu’à des choses plus graves comme les maladies neurologiques ou les maladies mentales, et une partie de la solution repose sur des neurotechnologies, rappelle Hervé Chneiweiss. Donc, il est hors de question de vouloir chercher à les interdire. L’idée, c’est de les utiliser de façon responsable. » Désormais, avec l’IA, des dispositifs bien plus modestes pourraient présenter le même risque pour l’intimité. C’est le cas de bandeaux et autres appareils à EEG, qui mesurent l’activité cérébrale dans un but récréatif. Ces électrodes se retrouvent maintenant dans des casques de réalité virtuelle et même dans des oreillettes, et servent à analyser le niveau de concentration ou de fatigue, par exemple pour améliorer les performances d’un joueur.
« Dans cinq ans, ce qu’il est possible de faire aujourd’hui avec des procédés plus invasifs pourra probablement être réalisé avec des écouteurs dans les oreilles, parce qu’on aura la puissance de calcul et la capacité de décodage nécessaires », alerte Hervé Chneiweiss. Il est donc urgent de réguler ces nouvelles neurotechnologies, et s’assurer que nos pensées restent secrètes.
L’Unesco tente d’imposer un cadre éthique
Le 12 novembre 2026, l’Organisation des nations unies pour l’éducation, la science et la culture (Unesco) a adopté à l’unanimité les premières recommandations pour réguler les données générées par les neurotechnologies. Elles préconisent, par exemple, que ces dispositifs ne doivent pas être utilisés pour améliorer les performances éducatives d’enfants en bonne santé, ni pour surveiller la productivité d’un employé sans son accord. « C’est la première fois qu’il y a un texte à portée légale sur le sujet », se félicite Hervé Chneiweiss, qui a présidé le comité à l’origine de ces recommandations. Elles posent un cadre clair pour permettre de réguler les données collectées dans un but récréatif, en particulier si elles risquent de permettre d’identifier une personne: « On pourrait voir que votre profil d’activité est différent du mien, précise-t-il. Et si vous vous êtes enregistré pour un jeu vidéo et que vous avez donné votre nom, vos coordonnées, on pourrait utiliser votre activité pour vous identifier. » En France, l’Office parlementaire d’évaluation des choix scientifiques et technologiques a commencé l’analyse de ce sujet dans le but de l’inscrire dans les États généraux de la bioéthique en avril.
Pour plus d’informations et d’analyses sur la CentrAfricaine, suivez Africa-Press





