GEO local : comment ChatGPT et Perplexity recherchent l’information

Une étude menée sur 15 000 prompts géolocalisés révèle des différences majeures entre les deux IA dans la manière dont elles interrogent le web pour construire leurs réponses.

geo-local-perplexity-chatgpt
Comment fonctionnent ChatGPT et Perplexity lors de requêtes locales ? Éléments de réponse. © Ascannio - stock.adobe.com

Comment ChatGPT et Perplexity choisissent-ils les sources qu’ils utilisent pour répondre à une question locale du type « quelle est la meilleure assurance à Paris » ? Une étude exclusive présentée à SMX Paris 2026 par Idriss Khouader, cofondateur de Meteoria, et Thibault Renouf, co-CEO de Partoo, apporte des éléments de réponse chiffrés, issus de l’analyse d’environ 15 000 prompts géolocalisés couvrant une vingtaine de secteurs et 200 villes françaises.

Deux IA, deux façons d’interroger le web

Lorsqu’un utilisateur ou une utilisatrice pose une question à ChatGPT ou Perplexity, le LLM ne se contente pas de puiser dans ses connaissances d’entraînement. Il génère des requêtes (appelées query fan-outs) qu’il envoie aux moteurs de recherche pour récupérer des sources en temps réel. Comme nous l’expliquait déjà Idriss Khouader, c’est cette étape intermédiaire qui détermine quelles sources seront analysées et, donc, quelles marques apparaîtront dans la réponse finale. L’étude présentée à SMX Paris met en lumière des différences significatives entre les deux IA à chaque étape de ce processus.

Des requêtes longues et bilingues pour ChatGPT, courtes et stables pour Perplexity

ChatGPT génère systématiquement des requêtes dans la langue du prompt et en anglais, quel que soit le pays d’origine de la question. « Si je pose un prompt en espagnol, il va faire la même chose : une requête en espagnol et une requête en anglais. Ça veut dire que si je veux influer sur les réponses de ChatGPT, il va falloir que j’aie du contenu anglophone, parce que la moitié des sources récupérées vont être anglophones », a détaillé Idriss Khouader. Ces requêtes sont en moyenne longues (11,5 mots) et très précises.

Perplexity, dans sa version gratuite, fonctionne différemment : une seule recherche par prompt, dans la langue d’origine, avec des requêtes courtes (environ 5 mots en moyenne) et très proches du prompt initial.

ChatGPT explore, Perplexity répète

L’étude a soumis 100 fois le même prompt à chaque IA pour mesurer la persistance de leurs comportements. Résultat : ChatGPT explore massivement. Sur un prompt type « quelle est la meilleure assurance à Paris dans le 10e », 63 des 67 query fan-outs récupérées étaient uniques, explorant des variations autour de l’assurance, des comparateurs, des avis, des options spécifiques. Perplexity, à l’inverse, produit quasiment la même requête à chaque envoi (« meilleure assurance Paris 10e 2026 »).

Cette différence de comportement se répercute directement sur les sources. ChatGPT utilise en moyenne 22,7 sources par réponse, et sur 100 envois du même prompt, le corpus total atteint 132 URL uniques. « C’est énorme. Ça veut dire que si je veux influer au maximum sur la réponse de ChatGPT sur un prompt, il va falloir que j’influe sur ces 132 sources », a souligné Idriss Khouader. Perplexity mobilise moins de sources par réponse (18 en moyenne) et présente un corpus beaucoup plus stable : seulement 40 URL uniques sur 100 envois.

Ce que ces résultats changent pour la visibilité locale

Ces différences de fonctionnement ont des implications directes pour les professionnels du marketing local et du SEO. Avec ChatGPT, la variabilité des sources signifie qu’une marque peut apparaître dans une réponse et disparaître de la suivante. L’enjeu est d’être présent sur un maximum de pages susceptibles d’être scrapées. Avec Perplexity, le corpus étant plus restreint et plus stable, l’enjeu est d’être positionné sur les quelques sources récurrentes.

L’étude a aussi permis d’identifier trois catégories de sources privilégiées par les IA sur les requêtes locales :

  • Les store locators des marques (pages de type « agence + ville »), qui constituent la première source de données utilisée par les IA pour les requêtes géolocalisées,
  • Les annuaires (Mappy, 118 000, Petit Futé, etc.), que Thibault Renouf qualifie de « revanche des petits annuaires : on nous a dit pendant des années « est-ce que les gens vont vraiment sur 118 000 pour chercher un point de vente ? » Mais maintenant, les IA y vont »,
  • Les comparateurs, privilégiés par les LLM parce qu’ils concentrent de nombreuses marques sur une seule page, ce qui réduit le coût de traitement par rapport au scraping de multiples sites individuels.

Pour mesurer l’efficacité de leur visibilité dans les réponses des IA, trois indicateurs ont été présentés :

  • Le taux de visibilité : fréquence d’apparition de la marque sur 30 envois du même prompt,
  • La position moyenne dans la réponse : plus la marque est mentionnée tôt, plus elle est mémorisée,
  • Le taux de source : pourcentage de fois où une page du site a été utilisée comme source de données.

Des métriques encore nouvelles, qui s’ajoutent aux indicateurs SEO traditionnels dans un paysage de la recherche en pleine recomposition.

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Les meilleurs outils Visibilité LLM