Africa-Press – Burkina Faso. Lanceurs d’alerte, whistle-blowers – de whistle, sifflet, et blow, souffler en anglais – ou encore carillonneurs attirent l’attention sur des faits répréhensibles ou contraires à l’intérêt général, afin qu’on enquête et prenne au plus vite des mesures salutaires.
Un statut de lanceur d’alerte reconnu depuis 2016
À l’évidence, lorsqu’elles portent sur des atteintes à la santé des personnes ou sur la détérioration de l’environnement, de telles révélations profitent à tous. Il faut les encourager, en dépit des obstacles qui se dressent. Pour éviter que leurs auteurs pâtissent de ceux qu’ils mettent en cause, des lois les protègent tant en Amérique du Nord qu’en Europe, en particulier en France, depuis qu’un statut de lanceur d’alerte a été reconnu en 2016.
Le 5 juin 2024, une lettre ouverte cosignée par des employés anciens et actuels d’OpenAI et de DeepMind, et parrainée par trois personnalités du secteur, Geoffrey Hinton, Yoshua Bengio et Stuart Russel, dénonçait les dangers cachés des techniques d’intelligence artificielle. Elle en profitait pour appeler à une extension du statut de lanceur d’alerte qui permette à des employés de grandes sociétés de divulguer des informations secrètes lorsqu’il en va du devenir de l’humanité.
70 % de chances que l’IA détruise ou nuise irréversiblement à l’humanité ?
Comment ne pas y souscrire, face à la catastrophe annoncée ? Si ce n’est qu’à force d’effarouchements récurrents, leurs auteurs perdent toute crédibilité. Que sont ces secrets qui sourdent à notre insu ? Ils n’en disent rien, sauf qu’ils provoqueront un cataclysme.
Un des signataires, ancien employé d’OpenAI, Daniel Kokotajlo, estime dans une déclaration faite à la fin mai au New York Times, à 70 % les chances que l’intelligence artificielle générale produite par OpenAI et DeepMind détruise ou nuise irréversiblement à l’humanité. Mais, pourquoi 70 % plutôt que 10 % ou 90 % ? Aucune justification ne fonde son évaluation… Plus qu’une alerte envoyée à des personnes averties, ces déclarations publiques dans la presse sonnent comme le tocsin, pour alarmer et effrayer.
Or, plus que de peur, nous aurions besoin de lumière face à de tels dangers !
Par Jean-Gabriel Ganascia, professeur à Sorbonne Université, à Paris, chercheur en intelligence artificielle au LIP6 (Sorbonne Université, CNRS), ex-président du comité d’éthique du CNRS. Dernier ouvrage publié: “Servitudes virtuelles”, Seuil, 2022.
Pour plus d’informations et d’analyses sur la Burkina Faso, suivez Africa-Press