SEO à l’ère des LLM : comment fonctionnent les moteurs de réponse ?

Idriss Khouader, fondateur de Meteoria, apporte son éclairage sur la manière dont les IA conversationnelles citent, hiérarchisent et rendent visibles les contenus.

GEO LLM Fonctionnement
"Un contenu IA-friendly est avant tout un contenu humain-friendly", selon Idriss Khouader. © Mykyta - stock.adobe.com

Pendant des années, la visibilité en ligne se jouait à coups de mots-clés et de positions sur Google. Désormais, une part croissante des internautes ne clique plus : elle interroge directement des IA conversationnelles, qui synthétisent l’information et citent leurs propres sources.

Pour comprendre ce basculement, nous nous appuyons sur l’analyse d’Idriss Khouader, co-fondateur de Meteoria. Le spécialiste nous explique comment fonctionnent ces nouveaux moteurs de réponse et ce que cela change pour les marques.

Du moteur de recherche au moteur de réponse

Pendant plus de vingt ans, la visibilité en ligne s’est jouée dans les pages de résultats des moteurs de recherche. Une logique désormais bousculée par l’essor des LLM, qui ne se contentent plus de proposer des liens, mais produisent directement des réponses. Pour Idriss Khouader, le changement est avant tout structurel. Un moteur comme Google « indexe, classe et restitue des documents existants », là où un LLM s’appuie sur un modèle statistique entraîné à comprendre le langage et à générer du texte à partir de probabilités.

Cette différence de nature implique une rupture profonde dans la manière dont l’information est traitée. Un LLM ne va pas « chercher » une réponse au sens classique : il la construit. « Le modèle n’a pas de base de données de contenus prêts à l’emploi. Il a appris des relations entre concepts et génère une réponse en prédisant les mots les plus probables dans un contexte donné », explique l’expert. Tant qu’il n’est pas connecté à Internet, il reste néanmoins limité à ses données d’entraînement, avec un risque bien connu : l’hallucination.

Un LLM non connecté ne sait répondre qu’à partir de ce qu’il a appris pendant son entraînement. S’il lui manque une information, il peut produire une réponse fausse, mais formulée de manière très convaincante, alerte Idriss Khouader.

L’arrivée des LLM connectés au web marque une nouvelle étape. Dans ce cas, l’IA combine ses connaissances internes avec des sources externes issues des moteurs de recherche. On ne parle plus alors de search au sens traditionnel, mais d’un moteur de réponse hybride, capable de synthétiser, hiérarchiser et reformuler l’information. Une évolution qui redéfinit mécaniquement les règles de la visibilité en ligne.

Comment une IA produit une réponse

Lorsqu’un utilisateur soumet une question à une IA conversationnelle, la première étape ne consiste pas à chercher une réponse, mais à évaluer le niveau d’incertitude du modèle. L’IA doit déterminer si elle peut répondre de manière fiable à partir de ses connaissances internes ou si une recherche externe est nécessaire. Cette décision conditionne l’ensemble du processus qui suit.

Dans certains cas, la recherche web est explicitement activée par l’utilisateur. L’IA s’appuie alors systématiquement sur des sources externes pour compléter ou vérifier sa réponse. Mais même sans activation manuelle, le modèle peut déclencher lui-même une recherche. Idriss Khouader identifie plusieurs signaux clés : les requêtes dépendantes de données fraîches, celles qui exigent des informations vérifiables ou précises, ou encore les recherches liées au e-commerce.

De manière générale, si le modèle estime que ses connaissances internes risquent d’être insuffisantes, trop anciennes ou trop incertaines, il déclenche la recherche externe.

Là où un moteur de recherche interroge systématiquement son index, l’IA conversationnelle opère une sélection préalable. La visibilité ne dépend plus uniquement du positionnement sur une requête, mais du type de question posé et du degré d’incertitude qu’elle génère pour le modèle.

Fan-out queries : le nouveau terrain de jeu de la visibilité

Les fan-out queries constituent l’un des mécanismes les plus structurants introduits par les IA conversationnelles. Concrètement, lorsqu’un utilisateur pose une question, le modèle ne se contente pas de lancer une requête équivalente sur un moteur de recherche. Il déploie au contraire une série de recherches parallèles, destinées à explorer différents angles d’un même sujet avant de formuler une réponse synthétique.

Dans la pratique, tous les LLM n’adoptent pas la même approche. Idriss Khouader observe que Perplexity formule des requêtes très proches du prompt d’origine, tandis que ChatGPT explore plusieurs angles d’une même thématique. « Perplexity utilise Google et ChatGPT utilise un mix entre Google et Bing. En moyenne, ChatGPT fait 2,5 recherches sur internet par prompt tandis que la version gratuite de Perplexity en fait 1 », précise-t-il. Autre particularité : ChatGPT a souvent tendance à formuler une partie de ses requêtes en anglais, y compris à partir de questions posées en français.

Ces recherches permettent aux IA de récupérer des contenus positionnés en top 10, top 20, voire top 30 sur les moteurs de recherche. Là encore, les écarts sont significatifs : ChatGPT exploite en moyenne 25 sources par prompt, contre une dizaine pour Perplexity. En lisant ces contenus, les modèles génèrent ensuite une réponse synthétique.

Pour apparaître dans les réponses des LLM, il faut donc apparaître dans les sources utilisées pour générer la réponse. Et pour apparaître dans les sources, il faut positionner du contenu SEO sur les fan-out queries, recommande Idriss Khouader.

Des réponses contextualisées, une visibilité mouvante

Avec les IA conversationnelles, la visibilité cesse d’être uniforme. Une même question peut produire des réponses différentes selon l’outil utilisé, car les modèles ne déclenchent ni les mêmes recherches ni les mêmes sources. « Quand on pose la même question à plusieurs LLM, on se rend compte que les mots-clés recherchés sur les moteurs de recherche ne sont pas les mêmes. De fait, les sources récupérées sont différentes et in fine les réponses varient », explique Idriss Khouader.

Pour un même prompt, seules 6 % des sources utilisées par ChatGPT et Perplexity sont communes. Cela implique que, pour les marques, le budget à dépenser pour optimiser leur visibilité sur ces deux LLM va être doublé.

Mais cette variabilité ne tient pas uniquement aux IA elles-mêmes. Elle dépend aussi fortement du contexte utilisateur. La formulation du prompt est déterminante : deux questions très proches produiront des réponses similaires, mais l’ajout d’un critère précis suffit à changer l’intention de recherche. « Ce qui compte est l’intention de recherche », souligne Idriss Khouader, qui établit un parallèle direct avec la logique de clusterisation des mots-clés en SEO.

La localisation constitue un autre facteur clé. Lorsqu’un prompt implique une recherche locale sans la préciser, l’IA utilise automatiquement la localisation de l’utilisateur et l’intègre à ses recherches. À l’inverse, une localisation explicitement formulée permet de suivre et comparer les réponses selon les zones géographiques.

Enfin, l’historique de conversation influe lorsque le LLM n’est pas connecté au web, un effet renforcé par l’amélioration progressive de la mémoire contextuelle des IA comme ChatGPT ou Claude.

Pourquoi certaines marques émergent (et d’autres disparaissent)

Toutes les marques ne sont pas logées à la même enseigne dans les réponses générées par les IA. Non pas parce que certaines seraient intrinsèquement privilégiées, mais parce que tous les contenus ne sont pas exploitables de la même manière. Idriss Khouader le rappelle : « Les LLM sont capables de lire tout type de contenu. En revanche, lire ces contenus va leur demander des ressources. Plus les contenus sont longs et plus cela coûtera financièrement à OpenAI ou Perplexity. »

Le spécialiste rappelle ainsi un principe clé du référencement naturel : le contenu doit avant tout être rédigé pour les lecteurs.

Il est important que les LLM puissent trouver facilement l’information dans un contenu. C’est exactement la même logique qu’avec un humain : un contenu IA-friendly est avant tout un contenu humain-friendly.

La structure éditoriale joue donc un rôle central. Titres explicites, hiérarchisation claire, réponses directes aux questions : autant d’éléments qui facilitent l’extraction de l’information. Il n’existe toutefois pas de format universel. « En fonction de la thématique du prompt, la typologie de contenu pourra différer », souligne Idriss Khouader. Un comparatif sera privilégié pour certaines requêtes, un guide ou une définition pour d’autres.

Pour comprendre ce qui fonctionne réellement, l’expert recommande une approche empirique : interroger les IA, puis analyser les sources qu’elles citent. C’est en observant ce que les modèles utilisent effectivement que les marques peuvent ajuster leurs contenus et augmenter leurs chances d’émerger dans les réponses.

Comment mesurer et piloter sa visibilité dans les IA

En novembre dernier, Vincent Terrasi prévoyait l’arrivée prochaine d’un Search Console pour ChatGPT. Si les premiers tableaux de bord de visibilité distribués aux médias partenaires laissent peu de doutes quant à cette initiative de la part d’OpenAI, les professionnels du SEO sont pour le moment contraints de composer avec peu d’informations.

Aujourd’hui, la principale difficulté tient au manque de transparence des acteurs de l’IA générative. « Nous ne sommes pas capables de savoir avec précision combien de personnes tapent un prompt dans ChatGPT tous les mois », constate Idriss Khouader. Contrairement aux moteurs de recherche traditionnels, les volumes de requêtes ne sont pas publics, ce qui complique toute lecture directe de la performance.

Faute de mieux, les marques doivent s’appuyer sur des méthodes indirectes. La plus simple consiste à tester manuellement des prompts dans les IA, analyser les réponses, les fan-out queries et les sources citées, puis répéter l’opération pour lisser les variations. Des outils spécialisés permettent d’automatiser ce suivi, en interrogeant quotidiennement plusieurs LLM à partir d’une liste de prompts.

Les KPI clés sont le taux de visibilité, la position moyenne lorsqu’il y a plusieurs marques, et le taux de citation du domaine dans les sources utilisées par les IA. Pour la notoriété, on peut aussi suivre le sentiment des réponses et les sources à l’origine de ces perceptions.

C’est précisément pour répondre à ces enjeux qu’Idriss Khouader a cofondé Meteoria. La plateforme permet de suivre, à partir de listes de prompts, la présence d’une marque dans les réponses générées par les principaux LLM, d’identifier les fan-out queries mobilisées et d’analyser les sources qui influencent réellement la visibilité. Une manière de transformer une visibilité encore opaque en un levier pilotable.

Picture of Idriss Khouader

Idriss Khouader, Spécialiste SEO et GEO

Idriss Khouader est un expert SEO et GEO (Generative Engine Optimisation). Entrepreneur du digital, il cofonde Meteoria, dédiée à la visibilité des marques dans les moteurs IA, et SEOpital, spécialisée en performance SEO et stratégie data-driven.

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Visuel enquête Visuel enquête

Évaluez BDM

Simple ou compliqué, ennuyeux ou captivant... nous avons besoin de vous pour améliorer notre site. Quelques minutes suffisent !

Je donne mon avis

Les meilleurs outils Visibilité LLM