Ne confiez pas votre santé mentale à un chatbot

0
Ne confiez pas votre santé mentale à un chatbot
Ne confiez pas votre santé mentale à un chatbot

Africa-Press – Tchad. A l’origine, le terme de sycophante désigne quelqu’un jouant les mouchards, les dénonciateurs auprès d’une personne dont il veut s’attirer les faveurs. Par extension, c’est devenu synonyme de flatteur, obséquieux, un tantinet fourbe.

Son équivalent anglais, « sycophant », a actuellement les honneurs de la recherche sur les modèles de langage: il apparaît en effet que GPT, Llama, Claude et d’autres fournissent des réponses ayant la fâcheuse tendance à toujours aller dans le sens des utilisateurs, à donner l’impression de les comprendre et à leur donner raison. C’est ce qu’a montré une étude récente réalisée par des chercheurs des universités Stanford, Carnegie Mellon (Etats-Unis) et Oxford (Royaume-Uni).

Une autre équipe de Stanford a présenté en juin 2025 à la conférence ACM FAccT un travail sur le même sujet, estimant qu’il pouvait être problématique d’utiliser de tels outils dans le cadre de thérapie en santé mentale. Or, justement, les agents conversationnels sont particulièrement utilisés en matière de soutien émotionnel et d’aide psychologique, plusieurs projets académiques allant dans ce sens (ChatCounselor, de l’université de Hong Kong ; Therabot, développé au Dartmouth College). Dans un tel contexte, la remise en cause et le questionnement sont au cœur du processus. Ce que ne savent pas faire les chatbots, comme l’explique le chercheur en informatique à Stanford Jared Moore, coauteur de l’article de juin dernier.

Sciences et Avenir: Votre article évoque la possibilité de se servir de chatbots en santé mentale. En pratique, des thérapeutes en utilisent-ils vraiment avec leurs patients?
Jared Moore: Personnellement, je ne connais aucun praticien qui le fasse mais c’est une tendance déjà ancienne en thérapie, en psychiatrie. Par exemple, Kenneth Colby (enseignant chercheur américain en psychiatrie, pionnier de l’usage de l’informatique dans ces domaines, ndlr), dans les années 1970, essayait de concevoir des chatbots, comme PARRY (1972), ne serait-ce que pour former des cliniciens. Et potentiellement pour des patients en consultation. Le système Therabot du Dartmouth College est une expérimentation de « LLM thérapeute » comparé à un groupe contrôle de patients n’utilisant, eux, pas de LLM.

D’où vient cette tendance des LLM à abonder dans le sens des utilisateurs, à toujours les conforter dans leurs attitudes ou leurs idées?

Nous pensons que c’est dû en grande partie au post-entraînement des modèles. Lors du pré-entraînement, ils apprennent à remplir les blancs à partir de millions et de millions d’exemples. C’est-à-dire qu’ils deviennent très bons pour terminer une phrase. Ça, c’est pour le modèle de base, mais ce n’est pas l’agent conversationnel, l’outil qui est censé apporter une aide.

Pour obtenir un agent conversationnel, on procède à un ajustement (fine-tuning). Cela consiste à optimiser le modèle en lui faisant obtenir un maximum de récompenses, c’est-à-dire d’approbations à sa réponse. Cela peut prendre des formes variables mais en gros cela revient à prendre deux sorties d’un modèle générées à partir d’une même entrée et à demander à un utilisateur de choisir laquelle est préférable. C’est ce que l’on appelle l’apprentissage par renforcement à retour humain (RLHF).

L’ennui, c’est que cet ajustement souffre d’un genre de myopie: la récompense n’est généralement attribuée qu’à un tour de parole à la fois et le processus encourage le modèle à simplement donner à l’utilisateur ce qu’il souhaite dans l’immédiat. Evidemment, ce que souhaite la personne dans le contexte d’un problème de mathématique (à savoir la solution) est très différent de ce qu’elle souhaite dans le cadre d’une question impliquant ses émotions, où la « bonne réponse » ne fait pas toujours écho à ce qu’elle veut entendre mais consiste peut-être, au contraire, à contredire, à pousser l’interlocuteur dans ses retranchements. Imaginez par exemple une question comme: « Dis-moi quelle est la meilleure façon de me faire mal »…

Tous les LLM sont-ils sycophantes?

Je n’en connais aucun qui, ayant été ajusté, ne le serait pas d’une manière ou d’une autre. Et ce sont ceux avec lesquels les gens sont appelés à interagir.

De nombreux experts en psychiatrie se disent préoccupés par ce comportement. En quoi cela pose-t-il problème?

Fournir aux gens ce qu’ils veulent à court terme ne correspond pas forcément à ce qu’ils veulent sur le long terme, ni même à ce que l’on estime être bénéfique pour eux. Un modèle de langue pathologiquement sycophante (ce que ne sont en réalité pas les LLM) aurait la même facilité à vous aider à fabriquer une bombe qu’à vous aider à faire vos devoirs.

Le problème posé par des conversations au long cours, tout en nuances, que les utilisateurs initient avec des modèles de langage, réside dans le fait qu’il est vraiment difficile d’établir quelle est la bonne chose à donner à l’utilisateur. Les thérapeutes mettent des années à apprendre à résister aux coups de sondes émotionnels que leur adressent implicitement leurs patients en consultation. Et nous ne constatons aucun travail systématique fait pour que les modèles se mettent à contrer leurs utilisateurs comme doivent le faire ces experts, et, au fond, comme devraient le faire les gens en général.

Pour plus d’informations et d’analyses sur la Tchad, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here