Les chatbots doivent-ils répondre de leurs réponses ?

2
Les chatbots doivent-ils répondre de leurs réponses ?
Les chatbots doivent-ils répondre de leurs réponses ?

Africa-Press – Tchad. Le 11 novembre 2022, Jake Moffatt se rendit sur le site d’Air Canada pour acheter un billet en vue d’assister aux obsèques de sa grand-mère décédée le jour même. Il y apprit alors, de la bouche – si tant est qu’on puisse parler de bouche ici… – du chatbot de la compagnie, qu’à condition de se manifester dans les 90 jours, on pouvait bénéficier de réductions sur des achats de dernière minute justifiés par un deuil.

Un transporteur condamné à cause d’une mauvaise réponse donnée par son chatbot

Lorsqu’il soumit sa demande, le transporteur aérien lui répondit que contrairement aux affirmations du chatbot, il aurait dû signaler la situation avant de conclure la transaction. Jake Moffatt ne lâcha rien. Après de nombreux et vains envois de courriels, il engagea un procès contre la compagnie. Pour sa défense, l’avocat de celle-ci affirma que “le chatbot est une entité légale à part, responsable de ses propres actions.”

L’argument n’a pas convaincu les magistrats. En février dernier, ils ont condamné le transporteur à verser les sommes promises et, en sus, à rembourser les frais de justice. Il y a peu de chance que l’issue d’un procès en Colombie-Britannique fasse jurisprudence de ce côté-ci de l’Atlantique, encore que les avis d’éminents spécialistes divergent sur ce point… Il n’en demeure pas moins utile de tirer la leçon de cette anecdote.

Les chatbots ne sont pas supposés répondre de leurs réponses, au risque d’être inutiles

Elle enseigne qu’un chatbot qui se trouve sur le site d’une entreprise ou d’une administration engage celle-ci lorsqu’il promet un avantage indu ou, à l’inverse, lorsqu’il donne une information erronée susceptible de léser les utilisateurs. D’aucuns exigent, au nom de ce que l’on appelle la “garantie humaine”, qu’une personne se porte caution de toutes les décisions prises par une machine.

En l’occurrence, ceci signifierait ici qu’un employé serait censé avaliser tous les propos des chatbots mis à disposition du grand public, ce qui en réduirait singulièrement l’intérêt… La morale de cette histoire, c’est que si les agents artificiels répondent avec prolixité à la plupart de nos questions, ils ne sont pas supposés assumer la responsabilité de leurs propos, et donc répondre de leurs réponses…

Par Jean-Gabriel Ganascia, professeur à Sorbonne Université, à Paris, chercheur en intelligence artificielle au LIP6 (Sorbonne Université, CNRS), ex-président du comité d’éthique du CNRS. Dernier ouvrage publié: “Servitudes virtuelles”, Seuil, 2022.

Pour plus d’informations et d’analyses sur la Tchad, suivez Africa-Press

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here