Africa-Press – Côte d’Ivoire. Ce mois-ci, un ingénieur, Yannic Kilcher, s’est amusé à entraîner un algorithme, destiné à être utilisé dans un agent conversationnel, sur un jeu de données basées intentionnellement sur des conversations offensives et discriminatoires. Sans grande surprise, le chatbot une fois utilisé dans des conditions réelles par des êtres humains comme vous et moi a tenu des propos polémiques et inappropriés. L’ingénieur a ensuite exposé son exploit sur – ce sont ses mots – le plus horrible algorithme. Une vague de contestations a alors émergé chez les scientifiques et les ingénieurs qui remettent en question les conditions d’une telle expérience. Car la science n’est pas un jeu et doit être conduite selon de bonnes pratiques.
Dans l’expérience conduite ici, Yannic Kilcher a entraîné un algorithme sur un ensemble de conversations à caractère offensif au sein du forum de discussion du réseau d’échange d’images 4Chan. L’algorithme, ensuite embarqué dans un agent conversationnel écrit, n’a fait que reproduire les schémas récurrents des conversations issues de la phase d’apprentissage dans les échanges avec les utilisateurs. Impliquant racisme, sexisme, ou toute autre discrimination et réponse violente envers les utilisateurs qui ne savaient pas, quant à eux, qu’ils échangeaient avec un algorithme. Mais pourquoi tant de scientifiques et d’ingénieurs ont condamné ce calcul algorithmique ?
Un essai avec des cobayes « aveugles »
Tout d’abord, l’idée même de célébrer la création du « plus horrible » algorithme est somme toute cynique et reprochable. Dans le contexte de la démarche scientifique, on peut également interroger les conditions de conception et de mise en application de ce test. En effet, aucune dimension éthique ne semble avoir été considérée dans cette expérimentation. Définir clairement ce qu’on attend de ce test, ce que les résultats peuvent apporter à la science, ou encore le mal qu’on peut faire fait partie des points à adresser. Certains acteurs recommandent qu’une telle expérience soit validée et suivie par un comité éthique. Enfin, on peut se demander s’il n’aurait pas été plus honnête de prévenir les utilisateurs de leur rôle dans cet essai : des cobayes aveugles.
Qu’on s’entende, réaliser une telle expérience peut présenter un intérêt, comme communiquer au grand public les menaces des biais algorithmiques à cause de jeux de données statistiquement orientées. Elle peut également servir de point d’ancrage pour discuter de gouvernance algorithmique à travers les bonnes pratiques de conception, de développement, de test et d’usage de ces entités numériques. Mais cela doit être fait avec précaution au risque de tomber dans un spectacle horrifiant digne du mythe de Frankenstein.
Pour paraphraser Ben Parker – l’oncle de Spider-Man –, Franklin Roosevelt ou encore Winston Churchill, un grand pouvoir implique de grandes responsabilités. Une responsabilité qui continuera de croître dans le futur, avec une algorithmisation renforcée de la société dont les acteurs semblent de plus en plus puissants.
Pour plus d’informations et d’analyses sur la Côte d’Ivoire, suivez Africa-Press





