Zendesk et OpenAI : un partenariat pour réinventer la relation client

Zendesk s’appuie, entre autres, sur OpenAI pour renforcer son IA générative et viser 80 % de résolutions automatisées. Matthias Göhler, CTO EMEA, détaille ce partenariat.

zendesk-openai-partenariat
L'IA occupe désormais une place importante chez Zendesk, qui collabore notamment avec OpenAI pour la génération rédactionnelle. © Yurii - stock.adobe.com

L’intelligence artificielle transforme la relation client, et Zendesk entend bien rester à la pointe de cette révolution. Son CTO EMEA, Matthias Göhler, revient pour BDM sur le partenariat stratégique avec OpenAI, les enjeux de performance et les ambitions autour de l’automatisation des interactions.

Comment la collaboration entre Zendesk et OpenAI a-t-elle débuté ?

Nous travaillons avec OpenAI depuis déjà un certain temps (avril 2023, ndlr). Chez Zendesk, il n’y a pas un seul modèle d’IA qui alimente tout : nous avons des agents IA, un copilote, du routage intelligent, de la prévision, un modèle d’intentions, un générateur de base de connaissances, des analyses… L’IA est déjà très présente dans nos solutions. OpenAI est un partenaire clé, notamment pour l’IA générative où nous utilisons leurs grands modèles de langage, notamment pour l’aspect rédactionnel.

C’est un vrai partenariat, pas simplement une mise à disposition de modèles. Nous collaborons en continu, nous échangeons du feedback qui est pris en compte, et l’intégration va jusqu’à nos fonctions de R&D.

Nous faisons en permanence des benchmarks entre différents fournisseurs pour obtenir le meilleur résultat pour nos clients. Nous regardons trois critères : le temps de réponse, la précision et le coût de déploiement et d’opération. À ce jour, OpenAI est le plus performant et c’est pourquoi nous avons ce partenariat solide avec eux.

Nous avons aussi été parmi les premiers à proposer OpenAI dans des centres de données européens. Concrètement, cela permet à nos clients en Europe de s’assurer que leurs données ne quittent pas l’Union européenne, ce qui est un atout majeur pour certains d’entre eux.

Vous évoquez des benchmarks réguliers. Cela signifie-t-il que vous pourriez basculer facilement d’OpenAI à un autre fournisseur ?

Techniquement, oui. Nous veillons à ce que notre technologie reste ouverte, ce qui nous permettrait de changer si nécessaire, voire d’avoir plusieurs fournisseurs pour des cas d’usage différents. Certains clients ont déjà des préférences, et nous devons rester flexibles. Cela dit, un partenariat ne repose pas seulement sur l’aspect technique : il y a aussi une dimension commerciale et relationnelle.

Notre partenariat avec OpenAI est très solide, tout comme celui que nous avons avec AWS, sur lequel Zendesk est construit. Mais nous continuerons à surveiller le marché et à benchmarker, car ce qui nous guide reste l’intérêt de nos clients : obtenir le meilleur résultat, le plus rapidement possible, et à un coût optimal.

À quelle fréquence adaptez-vous la configuration des modèles et sur quels critères ?

Il ne s’agit pas seulement de modifier les prompts, même si c’est une discipline en soi. Ce qui compte surtout, c’est d’évaluer chaque nouveau modèle qui sort : apporte-t-il des avantages significatifs ? Cela peut concerner la précision, la profondeur des connaissances ou la compréhension simultanée du texte et de la voix.

Pour exemple et historiquement, un agent vocal fonctionnait en transcrivant la voix en texte, en envoyant ce texte à un modèle, puis en reconvertissant la réponse en voix. Cela créait une latence perceptible dans la conversation. Les nouveaux modèles capables de traiter directement voix et texte réduisent fortement cette latence, ce qui rend les interactions beaucoup plus naturelles.

Nous observons aussi l’émergence de modèles plus spécialisés. Par exemple, certains sont uniquement entraînés sur des études médicales. Ils répondent bien mieux sur ces sujets que des modèles généralistes entraînés sur l’ensemble d’Internet. Je ne serais pas surpris de voir apparaître d’autres modèles spécialisés, par industrie ou par domaine, et il faudra sans doute envisager des intégrations avec eux.

La latence est donc cruciale. Comment la gérez-vous, notamment lors des pics de trafic ?

C’est un enjeu majeur. Nous avons conçu nos systèmes en intégrant la latence comme un critère central. Le lieu d’hébergement dans les data centers est aussi important, pour minimiser les délais de communication. Côté client, il faut aussi prévoir des limites et éviter des pics de requêtes qui dégraderaient l’expérience de tous.

Nous planifions également les périodes de très forte activité, par exemple le Black Friday, ou encore les grands événements sportifs qui provoquent des pics massifs de demandes. Grâce à AWS, nous pouvons monter en charge rapidement. La latence dépend en réalité de plusieurs facteurs : l’architecture réseau, la gestion du trafic, la manière dont nous avons conçu nos solutions, les échanges avec d’autres systèmes et la rapidité des systèmes eux-mêmes. Tout cela combiné crée l’expérience de latence que vit le client.

Les modèles d’OpenAI se trompent-ils parfois ?

Bien sûr, cela peut arriver. Mais si vous comparez les premières versions de GPT à GPT-5, la précision s’est considérablement améliorée. Cela dit, les clients ne posent que rarement des questions générales. Ils posent surtout des questions spécifiques à une entreprise, à ses produits ou services. C’est pourquoi nous entraînons nos modèles spécifiquement sur le service client.

Nous traitons environ 5 milliards d’interactions par an : cela nous donne une base énorme pour affiner l’IA, tout en respectant l’anonymisation.

Nous utilisons aussi une approche appelée RAG (retrieval augmented generation). Concrètement, le modèle va chercher la réponse dans une base de connaissances fiable et ne la modifie pas : il peut adapter le ton, être plus ou moins empathique, mais l’information de fond reste exacte. Si le client veut retourner un produit, par exemple, l’IA identifie la demande, consulte les commandes, vérifie les produits et déclenche automatiquement le bon processus. Cette combinaison nous permet d’assurer un haut niveau d’exactitude et de résoudre les demandes.

Avez-vous observé des effets positifs inattendus pour vos clients ?

Je dirais que les effets sont positifs, mais attendus. Le principal indicateur, pour nous, ce sont les résolutions automatisées. Nous visons 80 % de demandes entièrement résolues par l’IA, tous canaux confondus. Une résolution signifie que le client n’a pas besoin de revenir sur le problème après la clôture du ticket. Aujourd’hui, nous voyons de nombreux clients progresser vers cet objectif. Certains sont déjà à 40 ou 50 %, d’autres à 20 ou 30 %, mais la dynamique est forte.

Nous devrions atteindre environ 20 000 clients utilisateurs de l’IA Zendesk d’ici la fin de l’année, ce qui fait de nous l’un des acteurs les plus importants du marché en termes d’adoption. L’IA devrait générer près de 200 millions de dollars de revenus cette année, ce qui nous place probablement parmi les entreprises de service client connaissant la plus forte croissance dans ce domaine.

Atteindre 80 % de résolutions automatisées a un double impact : une meilleure satisfaction client, car les réponses sont rapides et précises, et plus de temps pour les agents, qui peuvent se consacrer aux 20 % de cas restants (les situations complexes, émotionnelles, ou à forte valeur ajoutée). Aujourd’hui, beaucoup d’agents sont submergés par des demandes répétitives comme « je n’ai pas reçu ma facture, pouvez-vous me la renvoyer ? ». L’IA peut traiter ces cas en toute autonomie.

Rencontrez-vous encore des clients réticents à l’IA ?

Très rarement. En Europe, il n’existe plus de conversation client ou de conférence où l’IA n’est pas évoquée. Il reste quelques entreprises sceptiques, souvent pour des raisons de sécurité, mais elles sont de moins en moins nombreuses. Avec 20 000 clients attendus d’ici la fin de l’année, on voit bien que notre base adopte activement l’IA.

Picture of Matthias Göhler

Matthias Göhler, CTO EMEA

Après notamment 5 ans chez Gemini Consulting, puis de nombreuses années chez SAP AG puis Hybris, Matthias Göhler est désormais CTO (Chief Technology Officer) chez Zendesk pour la région EMEA (Europe, Moyen-Orient et Afrique) depuis octobre 2021.

Explorez les métiers du digital

Tout savoir sur les missions, le salaire et les formations pour devenir professionnel du web et faire carrière dans le numérique. Voir le guide des métiers
Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Les meilleurs logiciels Service client