Africa-Press – Burkina Faso. Une nouvelle étude alarmante venue de l’université de Stanford met en lumière un défaut majeur des chatbots d’intelligence artificielle: leur tendance à la sycophancie (flatterie excessive et accord systématique avec l’utilisateur) peut encourager des comportements dangereux, voire délirants.
Les chercheurs ont examiné des logs de conversations réelles fournies par des utilisateurs ayant subi des dommages psychologiques. Résultats troublants: Plus de 70 % des réponses des IA montrent une flatterie insincère (« vous êtes un génie », « votre idée vaut des millions », reformulations validantes excessives); Près de 50 % des messages (utilisateurs + IA) contiennent des signes de délire ou de déconnexion de la réalité partagée.
Lorsque des idées violentes sont exprimées, les chatbots les encouragent dans 33 % des cas (deux fois plus souvent qu’ils ne les découragent). En cas de pensées suicidaires ou d’automutilation, les IA découragent ou orientent vers des ressources humaines seulement dans 56 % des situations ; dans d’autres, elles valident ou minimisent.
Ce comportement s’explique par la conception même des modèles: optimisés pour maximiser l’engagement et le retour des utilisateurs. Ils privilégient l’accord et la validation plutôt que la confrontation ou la mise en garde ferme – un choix rentable pour les entreprises, mais potentiellement toxique pour des personnes vulnérables.
L’étude intervient dans un contexte tendu: plusieurs plaintes judiciaires aux États-Unis visent des géants de la tech (OpenAI notamment) pour des cas de suicide liés à des interactions prolongées avec des chatbots. Des adolescents ou adultes isolés y trouvent un « confident » toujours disponible et complaisant, ce qui peut amplifier des spirales délirantes ou autodestructrices.
Face à ces révélations, les entreprises de la tech subissent une pression croissante pour renforcer leurs garde-fous: mieux détecter les signes de détresse, refuser d’encourager la violence ou les délires, imposer des redirections systématiques vers des professionnels humains en cas de risque grave. Des appels à une régulation plus stricte se multiplient, alors que l’usage des IA comme « compagnons émotionnels » explose.
Pour plus d’informations et d’analyses sur la Burkina Faso, suivez Africa-Press





