Wikipédia À 25 Ans: L’Avenir Face À L’IA

1
Wikipédia À 25 Ans: L'Avenir Face À L'IA
Wikipédia À 25 Ans: L'Avenir Face À L'IA

Africa-Press – Benin. Le 15 janvier 2026, Wikipédia a fêté son quart de siècle. Un âge de la maturité mais aussi un âge charnière, où la plateforme doit affirmer son identité au sein d’une nouvelle ère de l’information. Plus de 85% des Français consultent Wikipédia et 44% des usagers y accèdent au moins une fois par semaine, si ce n’est plus. L’encyclopédie figure parmi les dix sites les plus consultés au monde avec 65 millions d’articles disponibles dans plus de 300 langues.

« En 25 ans, nous avons réussi à construire une plateforme fiable et qui inspire confiance »

Et pourtant, en 2001, ce n’était qu’une utopie, une coquille vide de quelques articles. Une des premières contributrices et la co-fondatrice de l’association française Wikimédia France, Florence Devouard, se souvient: « Il y avait tout à faire. Notre credo c’était: ‘personne ne sait tout, mais tout le monde sait quelque chose’ ». Il fallait donc convaincre et recruter des contributeurs pour écrire des articles. Ainsi, petit à petit, des pages ont émergé, et avec elles, la problématique: comment construire une plateforme collaborative, accessible à tous, gratuite, qui soit fiable?

Le modèle éditorial qui s’est construit s’est appuyé sur des règles très claires. Toute information doit être sourcée et vérifiable, et un espace de discussion public laisse place au débat, en vue d’atteindre un consensus. Des modérateurs sont gage du bon respect de ces règles et assurent la neutralité des propos. « Un processus éminemment démocratique », qui lui a valu des ennemis, par exemple lors du blocage de Wikipédia en Turquie entre 2017 et 2020.

Cette fiabilité de l’information est pourtant fragile. « L’un des enjeux à venir est l’obsolescence des contenus. Les pages ainsi que les sources doivent rester à jour », soulève Florence Devouard. Un autre défi mentionné est la nécessité de nouvelles expertises pour alimenter les articles très spécialisés. Dans cette optique, Wikimédia France a annoncé le 13 janvier 2026 un nouveau partenariat avec le Centre national d’études spatiales (Cnes). « Cette collaboration a vocation à renforcer durablement la qualité et la fiabilité des contenus scientifiques liés au changement climatique, à l’observation de la Terre ou à l’étude de l’Univers », a déclaré Rémy Gerbet, directeur exécutif de Wikimédia France. Le Cnes devrait ainsi alimenter de contenus les bases de données et d’images Wikidata et Wikimedia Commons, dans un contexte de climatoscepticisme grandissant.

Pour Rémy Gerbet, le défi de la crédibilité est relevé. Avec un taux de confiance de 75%, les Français font beaucoup plus confiance à Wikipédia qu’aux moteurs de recherche (70%), qu’à l’intelligence artificielle comme ChatGPT (50%), ou qu’aux réseaux sociaux (23%). « En 25 ans, nous avons réussi à construire une plateforme fiable et qui inspire confiance ».

Le coût de la connaissance libre

L’utopie, érigée au rang de bien public numérique par l’ONU et alimentée par plus de 250.000 bénévoles, fait toutefois face aux menaces de son siècle. Tentatives de déstabilisation, censure et désinformation s’immiscent dans les rouages. Pour s’en affranchir et garantir une indépendance éditoriale, deux leviers sont invoqués: d’une part la transparence des sources et des discussions, et d’autre part un modèle économique sans publicité ni ventes de données personnelles, fonctionnant uniquement par des subventions et des dons de lecteurs.

Dès lors, l’essor des modèles d’intelligence artificielle vient complexifier ce mode de fonctionnement. La fondation Wikimedia a en effet déclaré que près de 65% du trafic des sites – Wikipédia, Wikidata, Wikimédia Commons – provenait désormais de requêtes automatisées, générant de fait une hausse significative de la sollicitation des serveurs. La bande passante pour les contenus multimédias a ainsi augmenté de 50% depuis janvier 2024, en raison de la collecte d’images pour l’entraînement de modèles IA. En parallèle, une chute de lectorat de 8% a été observée, réduisant le nombre de potentiels donateurs ou contributeurs.

Dans le but d’absorber cette pression technique et de financer cette utilisation, une filiale nommée Wikimedia Enterprise a été déployée en 2023. Ce programme est destiné à fournir des flux de données optimisés – volume et vitesse supérieure – aux utilisateurs intensifs, mais de manière payante. Cette solution permet ainsi aux entreprises d’IA comme Google aux Etats-Unis et PleIAs en France, de financer l’infrastructure. Ainsi entre 2023 et 2024, 3,4 millions de dollars, soit 1,8% du revenu total de la fondation Wikimedia, a été recueilli via ce système. Jeudi 15 janvier, cinq nouveaux acteurs de la Big Tech ont annoncé avoir signé une licence Wikimedia Enterprise: Microsoft, Meta, Amazon, Perplexity et Mistral AI, mais les conditions financières de ces contrats demeurent inconnues.

« Nous ne voulons pas une vérité statistique, mais bien une vérité sourcée »

Un accroc subsiste: le manque de transparence et de traçabilité. « Nous ne nous sentons pas particulièrement en danger car les IA génératives auront toujours besoin de sources primaires et secondaires d’information. Mais ce qui nous dérange c’est cette perte de traçabilité de l’information, car les sources et particulièrement Wikipédia ne sont pas mentionnées dans les réponses », constate Rémy Gerbet.

« Ce qui compte pour nous c’est de rester fidèle à nos principes dans cette nouvelle ère de l’information numérique. Pour cela, nous ne voulons pas de vérité statistique, mais bien une vérité sourcée ». Mais comment garantir ces principes dans le temps?

« Face aux nouveaux challenges que soulève l’intelligence artificielle, nous souhaitons garder un facteur humain et une échelle de temps longue, qui permet la vérification et la discussion. Ce sont les garanties ultimes de notre fiabilité », conclut le directeur exécutif de Wikimédia France.

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here