Document interne d’OpenAI : « Nous entrons dans un web conçu pour les IA et leurs agents »

Une poignée de journalistes a eu accès à un rapport d’OpenAI, intégrant des métriques de visibilité des sites. Vincent Terrasi nous éclaire sur un constat clair : le trafic des sites s’écroule.

Document Openai Trafic
Pour Vincent Terrasi, "les agents deviennent la couche dominante d’accès au savoir". © petovarga - stock.adobe.com

En début de semaine, OpenAI a diffusé un document partenaire auprès d’une centaine de médias dans le monde. Ce rapport mensuel de statistiques détaille comment les liens provenant des sites des éditeurs sont affichés et cliqués dans ChatGPT. Vincent Terrasi, spécialiste SEO, a eu accès au document et en a partagé les principaux enseignements via un post publié sur LinkedIn.

Le fondateur de Draft & Goal a accepté de revenir, pour BDM, sur le document, qui amorce selon lui « une transition structurelle » dans la manière dont le web distribue et expose les contenus.

Que présente le document d’OpenAI ?

Le document en question « n’est pas un document interne d’ingénierie », précise Vincent Terrasi. Il s’agit d’un « tableau de bord destiné à ceux qui apparaissent régulièrement dans les réponses de ChatGPT ». Les indicateurs présents dans le document sont inédits. L’expert considère qu’il s’agit de « la première photographie précise de la visibilité réelle dans ChatGPT ». On retrouve notamment :

  • Le nombre d’affichages d’une URL précise dans les réponses de ChatGPT.
  • La zone exacte où ces liens apparaissent (réponse principale, barre latérale, citations, suggestions).
  • Le volume de clics réellement générés.
  • Des informations détaillées par conversation.

Selon Vincent Terrasi, ces données proviennent du suivi interne que ChatGPT réalise déjà sur l’ensemble de ce qu’il affiche. OpenAI les partage pour le moment avec un nombre limité de médias afin de tester ces métriques et d’éviter des interprétations trop hâtives, avant une ouverture plus large.

Les partenaires servent de testeurs pour comprendre comment les citations sont perçues, comment les utilisateurs réagissent, et comment stabiliser les métriques […] Une visibilité élevée avec un CTR très faible peut être mal comprise si l’on applique les réflexes SEO traditionnels.

« Les agents sont en train de remplacer l’acte de cliquer »

Concrètement, que nous apprennent les données partagées ? Vincent Terrasi dresse un constat clair : « La visibilité est découplée du trafic. » En d’autres termes : « On peut recevoir 500 000 impressions pour moins de 1 % de CTR. » Un enseignement troublant aux premiers abords, mais qui suit une logique intuitive : on ne clique que rarement sur les liens affichés par ChatGPT. « Même la meilleure URL de mon fichier affiche 518 624 impressions pour seulement 4 670 clics, soit un CTR de 1,68 %. La plupart des autres pages restent entre 0 % et 0,1 % », ajoute Vincent Terrasi.

Pour l’expert, trois raisons principales expliquent cette tendance : l’interface fermée de ChatGPT, la synthétisation des informations et l’affichage des sources, présentées comme des références secondaires.

ChatGPT n’a pas vocation à renvoyer vers le web. Il résout la demande directement dans la conversation. Le comportement utilisateur est logique : s’il a la réponse dans la fenêtre de chat, il ne clique pas […]  Les agents sont en train de remplacer l’acte de cliquer.

Autre observation paradoxale : plus un contenu est complet, moins il génère de clics, tandis que les pages moins structurées en attirent davantage. La raison : un article riche suffit souvent à ChatGPT pour répondre, alors qu’un contenu faible pousse l’utilisateur à cliquer pour compléter l’information. « C’est pour cela que j’anticipe l’émergence de nouveaux formats et de nouveaux types de contenus spécifiquement pensés pour les IA : des contenus plus modulaires, plus actionnables », prévoit le fondateur de Draft & Goal.

Quelles conséquences pour les éditeurs de contenus ?

La transition en cours laisse ainsi apparaître un bouleversement profond : « Nous quittons un web conçu pour les humains et leurs navigateurs, et nous entrons dans un web conçu pour les IA et leurs agents », annonce Vincent Terrasi. Les IA deviennent ainsi des intermédiaires structurants entre les contenus et le public, et la lisibilité machine prend progressivement le pas sur la logique traditionnelle du clic.

Dans ce nouveau modèle : les IA lisent le web, elles en extraient des micro-fragments, elles les reconditionnent en réponses synthétiques et deviennent des intermédiaires décisifs entre les sites et les utilisateurs. Le trafic devient secondaire, la lisibilité machine devient prioritaire et les agents deviennent la couche dominante d’accès au savoir.

Pour les éditeurs, trois implications majeures se dégagent. Le trafic issu des IA restera faible, même lorsque la visibilité est très élevée. La visibilité devient donc surtout un indicateur d’autorité dans l’écosystème des agents. Enfin, les contenus doivent être conçus pour être plus facilement interprétables par les modèles que par les lecteurs humains.

Vincent Terrasi présente ainsi quatre recommandations :

  • Renforcer la structuration des pages.
  • Produire des contenus directement lisibles par les modèles.
  • Privilégier les formats modulaires.
  • Créer des pages pensées pour être synthétisées.

Vers un ChatGPT Search Console ?

Le document partenaire semble poser les bases d’un futur outil de suivi pensé pour l’ère des agents conversationnels, à la manière de Google Search Console. Pour Vincent Terrasi, ce projet ne fait aucun doute. « La question n’est plus ‘si’, mais ‘quand' », estime l’expert.

Les briques sont déjà là : impressions par URL, zones d’apparition, CTR, type d’appel (réponse directe vs. live search). C’est exactement la structure d’une Search Console dédiée aux IA.

Pour l’entrepreneur, c’est principalement la question de l’accès qui reste en suspens. « Je pense que l’outil sera d’abord réservé aux médias partenaires, puis ouvert de façon progressive lors de la bascule vers un ‘AI Web Standards’ plus large », prévoit-il.

Picture of Vincent Terrasi

Vincent Terrasi, Co-fondateur

Vincent Terrasi est expert SEO et data, spécialisé dans l’IA appliquée au référencement. Cofondateur et CTO de Draft & Goal, il forme et accompagne les professionnels à exploiter le machine learning pour optimiser leur visibilité en ligne.

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Visuel enquête Visuel enquête

Prenez la parole dans le dossier Tendances 2026

Associez votre expertise à l'un des contenus phares de BDM !

Je participe

Les meilleurs outils Web analytics