Africa-Press – Gabon. Il est devenu l’un de nos plus proches confidents. En quelques mois, l’usage de ChatGPT à des fins de santé mentale s’est imposé, au point qu’OpenAI passe au crible les comportements de ses utilisateurs. Selon l’entreprise, 0,15 % des utilisateurs actifs (soit environ 1,2 million de personnes) font part d’intentions suicidaires à ChatGPT au cours d’une semaine. De plus, 0,07 % (environ 560 000 personnes) présente « de possibles signes d’urgence de santé mentale liée à la psychose ou à la manie » et 0,15 % des « niveaux potentiellement intenses d’attachement émotionnel à ChatGPT ». Entretien sur le sujet avec le Pr Jodi Halpern, psychiatre et professeure de bioéthique à l’université de Berkeley en Californie (Etats-Unis).
Sciences et Avenir: Nous avons de plus en plus recours à ChatGPT pour sortir de la solitude ou pour trouver du soutien psychologique. Qu’est-ce que cela dit de nous en tant que société?
Pr Jodi Halpern: L’IA est une technologie très surprenante. En tant que psychiatre, c’est ce que cela nous apprend sur nous-mêmes. La recherche a montré que le monde connaît en ce moment une épidémie de solitude et une crise majeure de la santé mentale. Une étude d’Harvard de 2022 par exemple, montre que 61% des jeunes, adolescents et jeunes adultes souffrent de solitude. On retrouve ces mêmes chiffres chez les personnes âgées ainsi que chez les mères seules. Les données montrent que la solitude, en plus de son aspect psychologique, a des effets néfastes sur la santé globale, au même titre que le tabac. Donc c’est compréhensible que les gens essayent de trouver de la compagnie là où ils le peuvent.
Mais il y a ici une forme d’ironie et un risque sérieux pour l’internaute. La recherche a montré qu’une des causes attribuables à l’augmentation du sentiment de solitude dans le monde était justement l’utilisation grandissante des réseaux sociaux. Au lieu de se parler de façon spontanée dans les lieux publics, on a aujourd’hui davantage tendance à regarder son écran. Pour certaines tranches de la population, comme les adolescents, les chatbots remplacent déjà les amitiés réelles, causant des risques sérieux pour la santé mentale, avec, dans certains cas tragiques, une détérioration importante et le suicide.
« Est-ce qu’un chatbot doit dispenser une thérapie qu’un humain ne peut pas fournir? »
Les LLM (les « grands modèles de langage », comme ChatGPT) peuvent-ils tout de même se montrer utiles en santé mentale, en tout cas dans certains cas?
Il faut rappeler que depuis 2022, les problèmes de santé mentale ont bondi de 25% à travers le monde, à l’instar de la dépression et de l’anxiété sévère et l’anxiété sociale. Or les temps d’attente pour consulter un psychiatre ou un psychologue sont très longs. En attendant, les besoins de ces personnes ne sont pas comblés, donc il est compréhensible qu’elles se tournent vers la technologie. Mais l’IA est-elle une réponse? Est-ce qu’un chatbot doit dispenser une thérapie qu’un humain ne peut pas fournir? ll y a deux réponses à cela.
D’une part, il y a la psychothérapie traditionnelle. Il s’agit d’une thérapie dynamique, avec une relation avec le thérapeute. C’est dans ce contexte qu’il y a une forme de transfert, une relation profonde et interpersonnelle. D’après moi, les chatbots ne devraient pas proposer des thérapies ou des psychothérapies basées sur une relation avec un chatbot, qui fait semblant de comprendre ce que l’utilisateur est en train de traverser sur le plan émotionnel, puisque c’est toujours faux et souvent dangereux. L’autre forme de psychothérapie s’appelle la thérapie cognitive comportementale (TCC) et elle ne demande pas d’avoir une relation avec un thérapeute humain. Depuis plus de 20 ans, on sait qu’un patient peut mener cette thérapie lui-même grâce à des instructions et un journal.
Prenons l’exemple d’un patient anxieux, qui aurait une forme de phobie sociale. La thérapie cognitive comportementale comporte une série de « devoirs » à faire chez soi ainsi que des exercices pour s’exposer à son anxiété de façon graduelle. Au début, le protocole voudra que le patient aille adresser la parole à un serveur dans un café. La semaine d’après, il s’agit d’engager la conversation avec un collègue au travail. Tout le but est d’aller au-delà des barrières que pose l’anxiété. Pour cela, vous n’avez pas besoin d’avoir une relation profonde avec un humain, une IA simulant le contact humain, ou un thérapeute. A la place, vous pouvez utiliser une IA et un journal pour interagir avec vous-même.
A condition de garder en tête qu’il ne s’agit que d’un outil?
Oui. Dans le cadre d’une thérapie, l’IA peut être utilisée comme un journal intelligent qui serait là pour vous coacher. Comme on l’utiliserait pour établir un plan de remise en forme physique. Mais là où je suis intransigeante, c’est que le LLM ne doit pas faire semblant d’être un humain qui tient à vous. Il faut rappeler que l’intelligence artificielle est incapable de ressentir de l’empathie. Elle n’a pas ses propres sentiments, n’a pas de conscience d’elle-même et surtout elle n’a ni mortalité ni vulnérabilité. Or c’est précisément ce qui nous rend humain.
Nous avons des corps, des pensées, nous ressentons les choses. C’est pour cela que nous sommes tout indiqués pour prendre en charge d’autres humains en thérapie. Nos propres expériences nous font ressentir de l’empathie pour les autres. L’IA n’a rien de tout ça. Elle ne maintient qu’une illusion avec son côté flatteur, sycophante, en nous complimentant tout le temps et en allant toujours dans notre sens. Même les trois petits points qui clignotent avant que l’IA ne poste une réponse sont vraiment délétères. Ils laissent penser qu’il y a un véritable humain derrière la machine, en train de réfléchir et de taper sa réponse. Encore une façon subtile de nous faire penser qu’il y a un humain.
« Il est préférable d’éviter d’anthropomorphiser le bot »
Les chatbots développés dans un cadre thérapeutique constituent-ils un bon compromis?
Les exercices de thérapie cognitive et comportementale basés sur des chatbots ont démontré un réel intérêt, au moins durant quelques semaines. Therabot, par exemple, est dédié à la thérapie cognitive comportementale. Ce qui est crucial, c’est que le chatbot n’utilise pas d’avatar humain. Il ne répond pas au patient: « Ah je vous comprends, je suis avec vous ! » Il a un avatar en forme de trombone, c’est fait exprès, afin que l’utilisateur n’ait pas l’impression de converser avec un véritable humain qui aurait des sentiments. C’est vraiment intelligent de leur part.
En parallèle, la recherche montre pourquoi ils sont bien plus sécures que les chatbots qui font semblant d’être vos amis: Therabot n’encourage pas le patient à utiliser le programme de façon illimité, en le relançant sans cesse avec des questions. Même quand il a un accès illimité au programme, l’utilisateur moyen choisit de s’en servir au total pendant six heures étalées sur quatre semaines. Parce qu’il n’a pas l’impression que le bot est son meilleur ami, parce qu’il n’a pas été anthropomorphisé. Quand on compare cela à la manière dont ChatGPT utilise des caractéristiques anthropomorphiques, la flagornerie et d’autres techniques pour inciter à une utilisation excessive, poussant les utilisateurs à passer des heures avec leur bot plutôt qu’avec de vraies personnes… Il est préférable d’éviter d’anthropomorphiser le bot, de le concevoir comme un outil plutôt que comme une simulation d’un humain capable d’empathie. Cela dit, même pour la TCC (thérapie cognitivo-comportementale), des recherches supplémentaires sont nécessaires. Les effets de Therabot sur la santé mentale n’ont été mesurés que jusqu’à huit semaines après son utilisation. Au-delà, nous n’en savons rien.





