Municipales 2026: Désinformation Limitée Malgré IA

4
Municipales 2026: Désinformation Limitée Malgré IA
Municipales 2026: Désinformation Limitée Malgré IA

Africa-Press – Benin. ENTRETIEN. Chine Labbé est la rédactrice en chef Europe de Newsguard, une entreprise journalistique qui fournit des données sur la fiabilité de l’information. Elle répond aux questions de Sciences et Avenir à propos des élections municipales qui se sont déroulées en France les 15 et 22 mars 2026.

Sciences et Avenir: Avez-vous observé des tentatives d’ingérence ou de manipulation lors des élections municipales?
Chine Labbé: Comme beaucoup d’observateurs, nous étions attentifs à d’éventuelles opérations d’influence, d’autant que les autorités françaises, notamment Viginum (le service de vigilance et de protection contre les ingérences numériques étrangères, ndlr), avaient exprimé des inquiétudes en amont du scrutin. Ainsi, une campagne de désinformation attribuée à une opération russe bien connue appelée « Storm-1516 » a émergé peu de temps avant le premier tour du 15 mars 2026. Elle visait le candidat parisien Pierre-Yves Bournazel à travers un faux site se faisant passer pour son site de campagne, et qui diffusait une fausse information selon laquelle Bournazel envisageait de transformer le Centre Pompidou en centre d’accueil pour migrants.

Cette opération avait de quoi inquiéter?

Elle nous a mis en alerte. Le timing était très proche du scrutin, mais il était déjà arrivé que des campagnes russes soient lancées tardivement… même si dans d’autres cas elles démarrent très en amont: prenez les élections législatives en Arménie, elles ont lieu en juin et cela fait déjà presque un an que nous observons des infox qui les ciblent. Donc l’opération contre Bournazel avait de quoi inquiéter, mais nous n’avons pas, ensuite, identifié d’autres contenus significatifs liés à « Storm-1516 » dans cette élection.

« Des infox sur de faux risques d’attentat pour dissuader les électeurs de se rendre aux urnes »
D’autres acteurs malveillants se sont-ils néanmoins manifestés?

Oui, une autre opération russe, baptisée « Matrioshka », a également diffusé des contenus trompeurs. Mais si « Storm-1516 » actionne des moyens assez sophistiqués, axés sur l’intelligence artificielle générative, « Matrioshka » repose sur des méthodes beaucoup plus rudimentaires. Il s’agit généralement de faux reportages imitant des médias ou des institutions crédibles — TF1, Le Monde, Reporters sans frontières — avec une simple voix off et des images détournées. Ces contenus sont en général peu viraux et restent cantonnés à des plateformes comme Telegram, parfois X. Dans le contexte des municipales, ces infox ne ciblaient pas des candidats en particulier, mais plutôt le processus électoral lui-même, par exemple en évoquant de faux risques d’attentat pour dissuader les électeurs de se rendre aux urnes.

A l’arrivée, les manipulations qui signaient une ingérence étrangère ont donc été peu nombreuses. Comment l’expliquer?

Peut-être parce que certaines infox ont été rapidement démenties. Dans le cas de Pierre-Yves Bournazel, il a rapidement réagi pour dire que cette rumeur était montée de toutes pièces et qu’il avait saisi Viginum (voir tweet ci-dessous) ; plusieurs médias en ont rendu compte. Cela a permis de neutraliser rapidement la rumeur. Mais je pense aussi que les élections municipales sont un terrain complexe pour la désinformation. Les enjeux sont très locaux, ce qui exige une connaissance fine des contextes politiques et des dynamiques territoriales. Cela rend les opérations d’influence plus difficiles à concevoir et à rendre virales. D’ailleurs, l’infox autour de Bournazel en est la démonstration ; le faux site avait une URL en « Macron avec Bournazel », alors que le président de la République n’a jamais endossé ce candidat: on peut plus facilement faire ce type d’erreur quand on n’est pas un observateur de terrain.

J’ai saisi @Viginum_Gouv d’une ingérence étrangère dans la campagne municipale à Paris. pic.twitter.com/KwH5akdKpp

— PierreYves Bournazel (@pybournazel) March 5, 2026

« Les détecteurs d’IA peuvent être à l’origine de faux positifs et de faux négatifs »
Y a-t-il eu d’autres formes de manipulation en dehors des opérations étrangères?

Toutes les tentatives ne sont pas nécessairement liées à des puissances étrangères. À l’échelle du territoire, certains contenus trompeurs peuvent être produits par des acteurs locaux, parfois de manière opportuniste. Plusieurs cas isolés ont été identifiés, qui interrogent, comme ces publicités hostiles diffusées à la veille du second tour sur le site de La Dépêche à Toulouse, qui visait le candidat de LFI François Piquemal ; à Marseille, c’est à nouveau le candidat LFI Sébastien Delogu qui était ciblé par un faux blog l’accusant de viol et de violence. Cette campagne calomnieuse avait une dimension locale puisque, ainsi que l’a écrit Le Monde, des QR codes renvoyant à ce prétendu blog étaient distribués dans certains quartiers de Marseille. Viginum enquête sur ces affaires de manipulation, dont les auteurs sont encore inconnus. Ce type de contenu illustre néanmoins la facilité croissante avec laquelle des outils d’IA peuvent être utilisés à des fins de manipulation (d’après le Canard Enchaîné, un lien pourrait néanmoins être fait avec une « officine israélienne »).

Le problème ne s’arrête pas aux faux contenus…

Non, et c’est même là que la situation devient plus préoccupante. On assiste aujourd’hui à un phénomène inverse: des contenus authentiques sont accusés d’être générés par IA. Un exemple récent l’illustre très bien. Lors du conflit avec l’Iran, une rumeur a circulé affirmant que Benjamin Netanyahou avait été tué. Pour y répondre, le Premier ministre israélien a diffusé une vidéo où il apparaît dans un café à Tel-Aviv. Mais cette vidéo authentique a à son tour été présentée comme un deepfake par certains internautes, captures d’écran de détecteurs d’IA à l’appui ! En réalité, ces outils de détection ne sont pas fiables à 100 %. Ils produisent des faux positifs et des faux négatifs. Mais ils sont désormais utilisés comme arguments pour décrédibiliser n’importe quel contenu.

« Avec l’IA générative, les garde-fous existent, mais ils sont souvent contournables »
Quelles conséquences pour le débat public?

On entre dans une zone de brouillage généralisé. Le risque n’est plus seulement la diffusion de fausses informations, mais l’impossibilité croissante de distinguer le vrai du faux. Demain, une personne victime d’un deepfake – comme cette députée RN de l’Oise, visée par une fausse vidéo de strip-tease à l’Assemblée nationale (en décembre 25, ndlr) – pourrait ne plus réussir à convaincre qu’il s’agit d’un faux. Et inversement, des images réelles pourraient être rejetées comme étant générées par IA.

Les outils actuels permettent-ils de limiter ces dérives?

Pas suffisamment. Les garde-fous existent, mais ils sont souvent contournables. Par exemple, certains générateurs vidéo intègrent des « tatouages numériques » pour signaler les contenus produits par IA. Mais ils peuvent être supprimés très facilement, parfois en quelques minutes. Newsguard a testé plusieurs outils comme NanoBananaPro ou Sora: dans tous les cas, les protections peuvent être contournées. Par ailleurs, nos audits montrent que les chatbots eux-mêmes peuvent relayer de fausses informations: jusqu’à 29 % des cas pour les versions textuelles, et près de 50 % pour certaines versions audio.

Peut-on dire que les municipales marquent un tournant?

Pas encore. Elles n’ont pas été bouleversées par l’IA. Mais elles montrent que ces outils sont désormais accessibles à tous: acteurs politiques, militants, ou simples particuliers. C’est peut-être là le point clé: un individu isolé peut aujourd’hui produire un contenu trompeur crédible et le diffuser rapidement. Les municipales restent des scrutins très locaux, difficiles à exploiter à grande échelle. En revanche, l’élection présidentielle de 2027 va offrir un terrain beaucoup plus favorable. Si l’on combine cela avec la montée des deepfakes et l’incertitude sur leur détection, le risque est celui d’un débat public durablement fragilisé.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here