Africa-Press – Burkina Faso. ChatGPT n’est pas un moteur de recherche. Pourtant, dès sa mise en ligne en novembre 2022, l’agent conversationnel d’OpenAI a été utilisé comme tel par les internautes. Et il n’a pas fallu longtemps pour que Microsoft (avec Bing) ou Google intègrent les intelligences artificielles (IA) génératives dans leurs moteurs. Qwant et Brave ont fait de même. Perplexity, fondé par un ancien d’OpenAI, se présente comme le premier « moteur de réponses ».
Cette dénomination désigne des interfaces de recherche qui donnent des résultats non plus sous forme d’une liste de liens mais sous forme d’un pavé de texte généré automatiquement à partir d’une question posée par l’internaute en langage naturel. C’est le « search conversationnel », un modèle qui se développe au prix d’un bouleversement tant de l’expérience que l’on avait jusque-là d’internet que des modèles économiques bâtis sur le référencement. Serait-ce le début de l’ère du « zero-click »? Panorama d’un monde en mutation avec Olivier Martinez, fondateur de 255hex.ai et consultant en intégration de solutions d’IA génératives en entreprises.
Le « search conversationnel » va prendre l’ascendant sur la recherche par mots-clefs
Sciences et Avenir: Peut-on affirmer que l’intelligence artificielle (IA) générative et les modèles de langue sont en train de redéfinir radicalement l’utilisation du Web par les internautes?
Olivier Martinez: Oui et non. « Non », parce que cela va prendre du temps. C’est un vrai drame, depuis trois ans (ChatGPT est apparu en novembre 2022 ndlr), de penser que parce qu’une évolution est possible, elle va se faire tout de suite. Concernant le Web, l’expérience utilisateur ne basculera pas d’un coup, ne serait-ce que pour des questions d’habitudes accumulées depuis 25 ans.
Une fois que l’on a dit ça, oui, tout va changer ! Les IA conversationnelles capables de faire du « search » sont beaucoup plus simples d’utilisation pour un humain. On ne s’est pas rendu compte que transformer des intentions de recherche en mots-clefs était compliqué pour le cerveau, on s’est juste habitué à cette friction parce qu’on ne connaît que cela. Je ne dis pas à un moteur de recherche: « Je veux aller déjeuner dans un restaurant à Bastille ». Je tape: « restaurant, bastille, midi ». Or cette approche ne souffre pas la comparaison avec le fait de parler ou écrire en langage naturel, y compris dans un langage relâché, et d’avoir en face un LLM (grand modèle de langage, ndlr) qui comprend.
C’est pour cela que ce que l’on appelle le « search conversationnel » va prendre l’ascendant sur la recherche par mots-clefs. J’ignore à quelle échéance et il ne le fera pas disparaitre totalement.
Peut-on imaginer un genre de mix entre recherche par mots-clefs et interaction conversationnelle?
C’est ce que teste Google aux Etats-Unis, avec ce qu’il appelle le Web Guide. C’est une combinaison entre son IA Mode, fournissant des réponses générées, et des mots-clefs donnant des réponses sous forme de liens. Concrètement, il s’agit de petits paragraphes regroupant par thématiques les liens bleus bien connus. A terme, l’internaute aura peut-être un système prenant le meilleur des deux mondes.
« L’intermédiaire, maintenant, c’est la couche de LLM »
N’est-ce pas déjà le cas avec les navigateurs internet intégrant une fonction d’IA activée en permanence, tels Comet de Perplexity ou plus récemment Chat-GPT Atlas d’OpenAI?
C’est de même nature, car tout est lié. Avec ce type de navigateurs, nous avons ce rendu Web auquel nous sommes habitués, mais avec des outils à l’intérieur. A la différence de ce que j’évoquais précédemment, ces outils ne sont pas seulement conversationnels. Ils ont une fonction d’agent, selon le mot à la mode. On peut demander au navigateur « trouve-moi telle information dans la page », « fais en un résumé ». Ou encore « ouvre-moi trois autres onglets, dans ces onglets vérifie X, Y et Z », et une fois que j’ai les résultats: « prends la page que je consultais au début et compare le tout ». Tout cela, le navigateur le fait à ma place.
Ces interfaces, a priori très simples d’utilisation, ont en fait un niveau de complexité extrême et beaucoup de professionnels, encore, ne comprennent pas que le même outil est capable de résumer et d’agir. L’intermédiaire, maintenant, c’est la couche de LLM.
Dans ce contexte est apparue la notion de GEO (pour Generative Engine Optimization), appelée à supplanter les pratiques de SEO (Search Engine Optimization) qui servent à bien référencer un site internet dans un moteur (essentiellement sur Google). Quel est l’enjeu?
Il est double. D’abord, apparaître dans les réponses générées par l’IA, être cité le mieux possible. Et dans un deuxième temps, avoir des instruments pour mesurer cette visibilité. Comme dans le SEO, en fait.
Qu’est-ce qui diffère du SEO, alors?
Le vrai problème est celui d’une boîte noire globale. On n’a pas Google avec des liens bleus en face de nous mais des réponses contextuelles personnalisées. Il faut distinguer deux choses. D’abord, les réponses générées par un modèle paramétrique, doté d’un nombre de paramètres fixes, et qui ne va pas chercher de réponses hors de son corpus d’apprentissage. Ses réponses ne contiennent en général pas de sources explicites. Si on les lui demande, le modèle les invente car il ne peut pas ne pas répondre. C’est le grand drame des LLM.
Dans ce cadre-là, plus un contenu est présent sur internet, plus il a de chances d’apparaître dans les réponses. Les modèles étant entrainés sur des données allant jusqu’à fin 2024 ou début 2025, des marques présentes en ligne depuis longtemps ressortent mieux que d’autres, par exemple.
A côté de cela, il y a les réponses de modèles ancrés dans le monde réel, ce que l’on appelle le « grounding ». En gros, l’outil fait une recherche dans un ou des moteurs à la place de l’internaute, indexe le résultat et génère une réponse. Ces réponses sont sourcées, font apparaître des liens, des références. Si un site est déjà bien référencé, on peut se dire que, potentiellement, il aura une bonne visibilité dans le search conversationnel de Copilot, dans Perplexity, dans les Overviews ou l’AI mode de Google. Disons que cela se vérifie… plus ou moins !
Que sont ces AI Overviews qui font peur à tout le monde, notamment les sites de médias?
Ce sont de petits résumés placés au-dessus de la liste de liens bleus dans Google (pas encore déployés en France, ndlr). Pour le coup, la mesure de la visibilité dans les Overviews est simple car il y a très peu de personnalisation. Mais on s’est aperçu que dans ces résumés, ce n’étaient pas toujours les premiers résultats du moteur de recherche standard qui étaient visibles, mais des résultats figurant en deuxième ou troisième page de Google. C’est peut-être aléatoire, mais on ne sait pas.
En outre, une étude de novembre 2025 du spécialiste du référencement Ahrefs montre que, pour une même requête, les Overviews changent de contenus tous les deux ou deux jours et demi. On ne sait ni comment ni pourquoi.
« La visibilité dans l’IA générative est immesurable »
Comment se mesure la visibilité dans l’IA générative, quelles métriques utiliser quand celle du clic sur un lien n’est plus pertinente?
En pratique, c’est immesurable car on ne sait pas ce qu’il se passe à l’intérieur de l’interface conversationnelle. Quand je pose la même question que quelqu’un d’autre à ChatGPT, je n’obtiens pas la même réponse. La forme n’est pas la même, les liens dans les réponses générées ne sont pas toujours les mêmes, ou ils le sont mais pas dans le même ordre, les mêmes sources peuvent être présentées de manière positive, négative, neutre…
Il existe des outils qui envoient des centaines de prompts, des dizaines de fois, pour voir ce que cela génère. Mais cela ne donne que des tendances globales, une moyenne. Le marché du web est habitué à savoir s’il y a eu clic ou pas clic sur un lien. Or, avec l’IA générative, on mesure un pourcentage de « peut-être que votre marque est présente dans tel type de contexte, avec tel type de prompt ».
L’algorithme de Google, le PageRank, qui classe les résultats de recherche selon leur pertinence, était déjà considéré comme une boîte noire, tout le monde cherchant à en comprendre la logique sans réelles certitudes. Ce serait pire avec l’IA?
On ne sait rien de PageRank en lui-même mais les résultats dans Google sont visibles par tout le monde, tout le temps et de la même manière car il existe très peu de personnalisation, à part avec la géolocalisation. C’est ce qui a permis d’en déduire des choses.
Dans le search conversationnel, il faut faire des prompts pour avoir des résultats. Sauf que personne ne sait exactement comment les utilisateurs les formulent. Donc tout le monde fait travailler des LLM pour générer des listes de prompts et mesurer la visibilité de tel ou tel dans les réponses obtenues, mais cela ne reflète peut-être pas la réalité des échanges entre la majorité des utilisateurs et l’outil.
Il existe cependant un moyen de récupérer des vrais prompts: mettre un chatbot sur son propre site et récupérer ce que les gens tapent, pour savoir comment les visiteurs interagissent avec les contenus et comment le LLM réagit. Le site de voyages Kayak l’a fait (en intégrant ChatGPT, ndlr) pour cette raison.
Faudra-t-il travailler particulièrement son site et ses contenus, comme on le fait en SEO, pour augmenter sa visibilité?
En théorie, oui. Par exemple, les machines ont beau comprendre le langage naturel, elles sont beaucoup plus performantes face à des contenus structurés, de manière presque informatique. Du coup, il faudrait construire son contenu en fonction, ou doubler la version faite pour les humains par une version adressée aux robots d’indexation des IA, et qui serait non plus rédigée mais construite selon un format type base de données: lieu/fait/etc.
Car encore une fois, les bots de l’IA, qui actuellement ne font qu’extraire des données depuis internet, deviennent les intermédiaires entre l’humain et les contenus, les marques, les médias en ligne. Ce seront eux les « gatekeepers », ces acteurs qui régissent l’accès à l’information, sa diffusion, sa hiérarchisation. Après, les humains vont-ils réellement changer leur manière de faire du contenu pour plaire à du search conversationnel? La tendance actuelle le montre. A terme, on n’en sait rien.
Pour plus d’informations et d’analyses sur la Burkina Faso, suivez Africa-Press





