Africa-Press – Côte d’Ivoire. Figurez-vous un moteur de recherche sur Internet qui ne répondrait plus à une requête par une liste de liens, mais par une réponse rédigée et toute prête, sans que l’internaute ait à cliquer où que ce soit, ni à consulter un site Web. Il n’est plus besoin de l’imaginer: c’est en train d’arriver.
Peu après l’apparition de ChatGPT, en novembre 2022, les grands modèles de langage (LLM) ont été utilisés par les internautes comme outils de recherche. Si bien que, très vite, les vrais moteurs de recherche ont intégré ces outils, devenant ainsi des « moteurs de réponse ». Bing de Microsoft, Qwant, DuckDuckGo, Brave proposent désormais une fonction de réponse générée par IA. Google en a même deux (pas encore déployées en France): l’AI Mode, qui consiste à interroger le moteur en langage naturel sur le mode de la conversation (le « search conversationnel »), et les overviews , des pavés de texte placés en tête de l’habituelle liste de liens et résumant les informations correspondant à la requête. Ces derniers sont le produit d’un calcul statistique, sorte de moyenne des réponses les plus probables, sans garantie d’exactitude.
Si cette évolution d’Internet n’est pas la première, elle promet une expérience radicalement différente. Même si le changement ne se fera pas du jour au lendemain, il est quasiment acquis, et ce pour une bonne raison: il est bien plus simple pour l’internaute d’interagir en langage naturel. « Avec l’habitude que l’on a depuis vingt-cinq ans, on ne s’est pas rendu compte que transformer des intentions de recherche en mots-clefs était compliqué pour un cerveau humain « , estime Olivier Martinez, consultant en intégration de solutions d’IA générative en entreprise. Au risque de fragiliser tout un écosystème reposant sur la mécanique du référencement de sites et de la monétisation du nombre de visites par les publicités (notamment pour les médias en ligne).
« Avec les LLM, les gens restent sur la page du moteur de recherche tandis que les contenus sont utilisés, absorbés et transférés à l’utilisateur, résume Fabian Suchanek, enseignant-chercheur spécialiste de traitement automatique du langage à Télécom Paris et coauteur d’un article sur ce thème en septembre 2025. Il n’y a donc plus de revenus de la publicité, plus de dons dans le cas d’un site comme Wikipédia, voire moins de contributions ; les gens qui tiennent des pages Web simplement pour être vus constatent que leur trafic baisse et perdent la motivation à les alimenter. » Dans une étude parue en avril 2025 et réalisée sur 300.000 mots-clefs, le spécialiste du référencement Ahrefs révélait que la présence des overviews de Google faisait chuter de 34,5 % en moyenne le taux de clics sur les liens remontés par la première page de résultats du moteur de recherche.
De fait, l’été dernier, nombre de médias américains notaient une nette chute de trafic sur leurs sites: moins 30 % sur celui de CNN, moins 40 % pour le Huffington Post ou Business Insider. En septembre 2025, dans un document adressé aux tribunaux dans le cadre de ses procès pour monopole sur le marché de la publicité en ligne, Google admettait que « le Web ouvert connaît déjà un déclin rapide « , et avec lui la publicité dont bénéficient les producteurs de contenus. Au point que les pratiques, jusque-là stratégiques, de SEO (l’optimisation du référencement des sites Web) seraient obsolètes.
Bientôt, on essaiera moins de faire remonter des contenus et des sites dans les premiers résultats d’un moteur de recherche que de les faire citer par un LLM. D’où, déjà, entre autres raisons, la prolifération de contenus en ligne générés et structurés par IA, mieux à même d’être repérés par cette dernière.
L’ère des moteurs de réponse
AI Mode de Google: Contrairement à l’AI Overview du même Google, cette fonction ne cohabite pas avec une liste de liens. C’est une interface conversationnelle (par écrit ou oral) reposant sur le LLM maison, Gemini. La technologie affiche toutefois des sources et intègre le procédé dit de « query fan-out », qui découpe la requête en plusieurs sous-requêtes. Encore indisponible en France.
Perplexity de Perplexity AI: Lancé en décembre 2022, Perplexity est le premier moteur de réponse. À chaque question d’internaute, ses robots d’indexation parcourent Internet en temps réel, cherchent les informations pertinentes et en font une synthèse. L’internaute peut voir les « étapes de l’assistant », c’est-à-dire comment le moteur a structuré sa réponse, et avec quelles sources.
Réponse Flash de Qwant: Cette option du moteur français fournit, à la manière des overviews de Google, à la fois des réponses générées par IA et une liste de liens. Il suffit de l’activer dans les paramètres. L’internaute peut demander une réponse plus ou moins détaillée et a accès aux sources. Qwant ne communique pas, pour l’heure, sur la technologie de LLM utilisée.
Réponse avec IA de Brave Software: Le navigateur open source Brave est équipé par défaut du moteur maison éponyme depuis 2021. Il a intégré l’assistant conversationnel Leo, lui aussi développé en interne. Il sert à la version IA du moteur, disponible depuis 2025. Les réponses générées s’affichent dans l’écran principal mais on peut faire apparaître toute une série de références dans une fenêtre latérale.
Des navigateurs embarquant une IA activée en permanence
La transformation du Web ne s’arrête pas là. Des interfaces telles que Dia, de la start-up new-yorkaise The Browser Company, Comet de Perplexity AI, le mode Copilot dans Edge de Microsoft ou ChatGPT Atlas, apparues en 2025, ne sont rien moins que des navigateurs embarquant une IA activée en permanence. « On a toujours ce rendu Web auquel on est habitué, mais avec des outils à l’intérieur qui ne sont pas seulement conversationnels mais ont une fonction d’agent « , poursuit Olivier Martinez. Il est possible de demander à ces IA de trouver une information dans la page ouverte, de faire un résumé, mais aussi d’ouvrir d’autres pages en parallèle, d’y chercher des informations spécifiques dans chacune, de les comparer, etc. Le véritable intermédiaire entre l’internaute et les contenus n’est plus le navigateur Web ou le moteur de recherche, mais la couche de LLM.
Pour en arriver là, d’autres bouleversements sont à l’œuvre, moins visibles par l’utilisateur, au niveau de l’infrastructure technique d’Internet. C’est connu, les géants de l’IA entraînent leurs algorithmes avec une quantité faramineuse de données venant d’Internet. Pour cela, ils utilisent des webcrawlers, des logiciels automatisés qui explorent le Web et collectent tout ce qu’ils trouvent. Avec pour conséquence un encombrement de la bande passante, des difficultés d’accès voire des pannes. En avril 2024, l’activité de ClaudeBot, le webcrawler d’Anthropic, a rendu inaccessibles quelques heures les forums dédiés au système d’exploitation open source Linux Mint. Quatre mois plus tard, le P-DG du site collaboratif iFixit, destiné à la réparation de matériels électroniques, dévoilait que le même bot s’était connecté à ses serveurs un million de fois en 24 heures.
Les encyclopédies participatives Wikipédia et WikimediaCommons sont des cibles de choix pour les LLM. Or, depuis janvier 2024, la fondation Wikimédia, qui chapeaute ces projets, constate une hausse de 50 % de sa bande passante réservée au téléchargement de contenus multimédias. « Notre infrastructure est conçue pour supporter des pics soudains d’affluence venant des humains, mais le volume de trafic généré par les webcrawlers est sans précédent, explique Vidhu Goyal, porte-parole de la fondation. La lecture et l’édition sur nos sites peuvent être ralenties. Notre équipe technique est confrontée à des coupures constantes et doit bloquer l’énormité du trafic venant de ces logiciels avant qu’ils ne perturbent la consultation des sites, entre autres. »
Une indexation abusive des données du Web par les robots
Ces efforts ont un coût technique et financier, d’autant que la fondation Wikimédia dispose de sa propre infrastructure informatique, gage de son indépendance. Ce qui attire encore plus les bots. « Nous avons observé de la collecte de données non seulement depuis nos projets Wikimédia, mais aussi sur les systèmes de notre infrastructure développeur, comme nos plateformes de revue de code ou de suivi de bugs « , ajoute Vidhu Goyal.
Tout site Internet peut indiquer aux webcrawlers, dans un fichier appelé robots. txt, ce qu’il leur est possible de faire, quelles pages leur sont interdites, la fréquence de visites, le volume limite de données à collecter, etc., y compris en ciblant nommément tel ou tel bot. Mais il n’est pas rare que les logiciels de l’IA passent outre. Dans ce contexte tendu, le prestataire Cloudflare, qui fournit des services techniques à près de 20 % des sites Internet, a pris une initiative audacieuse avec son service AI Labyrinth, lancé en mars 2025. Concrètement, il s’agit de fausses pages Web générées par IA mais inintéressantes sur lesquelles les bots gaspillent du temps et de la puissance de calcul, tout en épargnant les vrais sites (elles restent invisibles des internautes).
« Tout le contenu de ces pages est vrai mais il ne leur est pas propre, détaille Reid Tatoris, chef de produit senior chez Cloudflare. Nous pourrions, par exemple, créer beaucoup de textes sur l’histoire de l’astronomie, et les robots d’indexation viendraient les parcourir, mais l’information ne leur serait pas utile car il s’agit de connaissances communes. » Or, les modèles de langage ont sans cesse besoin de nouvelles données pour s’améliorer, les informations de base ayant depuis longtemps été apprises par les algorithmes. AI Labyrinth évite toutefois de mettre en ligne du pur charabia ou des erreurs susceptibles non seulement de nuire aux performances des LLM, mais aussi d’être rediffusés par ces mêmes LLM.
Ce sont les webcrawlers jugés abusifs et illégitimes qui sont en ligne de mire. « Par exemple, je pourrais développer mon propre modèle, doté d’un crawler appelé Reidbot, qui se déclarerait comme tel et suivrait les instructions des sites. Mais je pourrais avoir un crawler secret qui n’en respecte aucune: ce serait un robot illégitime « , poursuit Reid Tatoris. Perplexity AI a plusieurs fois été épinglé pour cette pratique. Dans un monde qui change, difficile de s’adapter aux nouvelles règles quand certains ne les suivent déjà pas.
Sciences et Avenir: Qu’est-ce qui diffère, alors?
Il faut distinguer deux types de modèle. D’abord celui qui ne va pas chercher de réponses hors de son corpus d’apprentissage. Ses réponses ne contiennent en général pas de sources explicites, ou alors il les invente ! Dans ce cadre-là, plus un contenu est présent sur Internet, plus il a de chances d’apparaître. À côté, il y a les modèles ancrés dans le monde réel, ce que l’on appelle le « grounding ». L’outil fait une recherche dans un ou des moteurs à la place de l’internaute, indexe le résultat et génère une réponse. Ces réponses sont sourcées, avec des liens, des références. A priori, un site déjà bien référencé aura une bonne visibilité dans la recherche conversationnelle. Disons que cela se vérifie… plus ou moins !
Sciences et Avenir: Comment mesurer sa visibilité quand compter des clics sur un lien n’est plus pertinent?
En pratique, ce n’est pas mesurable car on ne sait pas ce qu’il se passe à l’intérieur de l’interface conversationnelle. Quand je pose la même question que quelqu’un d’autre à ChatGPT, je n’obtiens pas la même réponse. La forme n’est pas la même, les liens cités ne sont pas toujours les mêmes, ou ils le sont mais pas dans le même ordre, les mêmes sources peuvent être présentées de manière positive, négative, neutre… En outre, il faut faire des prompts (requêtes) pour avoir des résultats.
Or, personne ne sait ce que tapent exactement les utilisateurs. Il existe des outils qui envoient des centaines de prompts pour voir ce que cela génère. Mais cela ne donne que des tendances globales, une moyenne. Le marché du Web est habitué à savoir s’il y a eu clic ou pas clic sur un lien. Mais avec l’intelligence artificielle générative, on mesure un pourcentage de « peut-être que vous êtes présent dans tel type de contexte, avec tel type de prompt ».
Pour plus d’informations et d’analyses sur la Côte d’Ivoire, suivez Africa-Press





