Les agents conversationnels vont-ils devenir nos futurs moteurs de recherche ?
Entre l’arrivée prochaine de la SGE de Google et la démocratisation des chatbots, la recherche sur le web va changer. Pierre Calvet, expert SEO, nous éclaire sur ce futur proche.
À l’occasion de SMX Paris, événement se déroulant les 14 et 15 mars 2024, Pierre Calvet, support et conseil client chez babbar.tech, participera à une conférence portant sur le potentiel remplacement des moteurs de recherche classiques par les agents conversationnels. Nous lui avons posé nos questions sur l’avenir de la recherche sur le web.
Pierre Calvet, SEO et customer support chez babbar.tech
Pierre Calvet est issu d’une formation en tourisme et nouvelles technologies. Il a notamment occupé le poste de responsable SEO international au Club Med, s’est attaché à optimiser le référencement chez Govoyages et pour divers clients en freelance. Il est désormais SEO et customer support chez babbar.tech.
Avec la démocratisation des agents conversationnels et l’arrivée prochaine de la SGE de Google, à quoi pourrait ressembler la recherche sur Internet dans quelques mois ?
Dans la majorité des cas, la recherche sur un moteur va bien changer. Il y a plusieurs catégories de requêtes sur lesquelles on peut voir que les agents conversationnels vont être perçus comme très pertinents. C’est déjà un peu le cas, notamment sur l’informationnel. Les utilisateurs vont déplacer leurs habitudes en dehors des sites, pour consommer l’information dans les moteurs de recherche, donc Google, Bing, etc. C’est une évolution qui est assez logique d’une certaine façon, parce qu’elle découle des modifications que Google a apportées aux pages de résultats ces dernières années. Elle va avoir un impact sur des sites web qui seront moins visités, puisque les gens vont consommer l’information sur le moteur de recherche, et sur l’expérience de recherche. Les annonces payantes vont être toujours présentes, parce qu’elles font partie du business model des moteurs de recherche. Mais en revanche, on va rentrer dans un système de discussion avec le moteur. Ça permettra d’affiner un peu le besoin, d’améliorer un peu la qualité perçue de la réponse.
Par ailleurs, on va observer que les résultats organiques vont différer de façon assez singulière entre la page de résultats classique et les pages SGE, par exemple. Les liens mis en avant par SGE et Bing sont moins nombreux (jusqu’à trois en moyenne). Ça change quand même pas mal de choses par rapport aux formats qu’on connaissait bien jusque-là. Les utilisateurs auront une réponse plus rapidement, ils auront moins besoin d’aller visiter les sites, donc les éditeurs de sites ont tout intérêt à expérimenter des critères d’autorité et d’expertise.
Du point de vue de l’expérience de recherche, on peut ajouter, en plus des intentions classiques, la possibilité de création de textes ou d’images pour répondre à un besoin spécifique d’illustration ou de synthèse. Ce qui est quelque chose qui n’existait pas – ou très peu – jusqu’à présent dans les moteurs de recherche.
Enfin, l’impact sur la qualité réelle des résultats est vraiment important. C’est d’ailleurs ce qui explique les changements dans les résultats. Les critères d’expertise sont beaucoup plus importants, car comme SGE donne moins la parole aux divers sites existants, elle ne peut pour autant se permettre que l’agent conversationnel raconte n’importe quoi, ce qu’on peut voir assez fréquemment à l’heure actuelle. L’expertise, l’autorité, la trustworthiness, donc la confiance qu’on peut accorder à un site web, vont donc être particulièrement importantes.
Est-ce qu’on voit des comportements prêts à évoluer du côté des utilisateurs ?
Techniquement, les utilisateurs changent déjà un petit peu de mode de fonctionnement. Il y a une partie des habitudes de recherche qui a évolué parce que les utilisateurs ont découvert ce qu’ils pouvaient faire notamment avec ChatGPT. Ça répondait à certains de leurs besoins. Quelqu’un qui souhaite apprendre à coder, au lieu d’aller chercher une explication à son code d’erreur sur Stack Overflow par exemple, il va sur ChatGPT : l’explication est plus personnalisée, elle permet de mieux comprendre le problème. On va aller affiner le sujet ou chercher à le synthétiser.
Ces usages avaient déjà commencé à changer avec les extraits de réponse, la position zéro, les « people also ask »… Tous ces éléments sont déjà installés dans nos habitudes de recherche. SGE, c’est un peu l’étape d’après qui permet vraiment de changer cette habitude de consommation du web. Et je pense que globalement, le monde est déjà en train de changer là-dessus, notamment par l’intermédiaire de ChatGPT.
Les agents conversationnels sont-ils aussi convaincants que les moteurs de recherche classiques aux yeux des internautes ?
Ça dépend, puisqu’il y aura plusieurs types de SGE, justement, en fonction du besoin des utilisateurs. Le moteur s’adapte aux besoins et avec un mode conversationnel, il devient un peu l’assistant de recherche. En réalité, il existe déjà plusieurs types de recherche, avec différentes actions en conséquence, comme l’ouverture d’un encart Google Maps ou Wikipédia selon qu’on cherche un restaurant ou une personnalité par exemple.
Ce qui ressort de quelques cas d’usage étudiés, c’est que les résultats des agents conversationnels sont bons en apparence, et c’est suffisant pour une bonne partie du public.
Dans certains cas, même si la réponse est fausse, elle paraît bonne. C’est ça qui peut faire un peu peur. Et il faut noter que pour l’instant, certaines intentions ne sont pas répondues convenablement par les agents conversationnels, donc le résultat n’est pas totalement satisfaisant pour une partie du public ou pour les acteurs.
Google est-il le seul acteur à pouvoir prétendre transformer l’expérience de recherche grâce à un chatbot assisté par IA ?
Non, on peut notamment citer Bing (devenu Copilot, ndlr) qui a une bonne avance, d’ailleurs, dans ce domaine. Mais il ne faut pas penser que ça fait de Bing le nouveau Google. Déjà parce que ce n’est sans doute pas leur intention. Mais aussi parce que les utilisateurs ont leurs habitudes de consommation. Par exemple, des utilisateurs appréciaient avoir des sources, ce que Bard (l’agent conversationnel de Google devenu Gemini, ndlr) ne permettait pas vraiment. Pourtant une bonne partie d’entre eux préféraient l’écosystème Google parce qu’ils en avaient l’habitude.
L’avantage de Google, c’est que si demain, il propose un nouvel outil, tout le monde va le tester.
On peut également ajouter un autre acteur : OpenAI (éditeur de ChatGPT, ndlr), même s’il est soutenu par Microsoft et donc proche de Bing, reste assez indépendant dans sa façon de faire. S’il veut sortir un modèle plus fiable, plus efficace ou plus performant, ils ont déjà la base d’utilisateurs qui leur servirait.
Pour quels secteurs l’arrivée des agents conversationnels au sein et en parallèle des moteurs de recherche est une bonne perspective ? Qui va en pâtir ?
C’est difficile de lire dans une boule de cristal. Ceux qui tireront vraisemblablement leurs épingles du jeu sont ceux qui mettront leurs expertises en avant. Vraisemblablement, les gros acteurs, les e-commerçants, les entreprises qui mettent les moyens pour donner une parole jugée experte, vont mettre leur contenu en avant. Et donc, à l’inverse, les blogueurs, les petits acteurs seront très certainement impactés négativement. Quand une réponse d’un puissant e-commerçant va masquer la leur, parce qu’elle semble plus légitime, c’est là où un petit acteur risque de perdre sa voix au chapitre, en tout cas dans la réponse générée.
Les critères EEAT doivent servir à identifier qui est expert. Il sera donc hyper important de faire des contenus de qualité – c’était déjà le cas, mais ça le sera d’autant plus -, en faisant par exemple intervenir un expert dont la parole pourra être un véritable support sur lequel l’outil génératif va se baser pour ses conversations avec les utilisateurs. Pour le robot, les signaux utilisateurs vont aussi servir.