OpenAI renforce son API avec la fonctionnalité Deep Research de ChatGPT
Disponible sur toutes les versions payantes de ChatGPT, la fonctionnalité de recherche approfondie s’invite dans l’API.

Ce jeudi 26 juin 2025, OpenAI a annoncé, dans un post publié sur son compte X destiné aux développeurs, l’arrivée de deux nouveautés au sein de l’API : la fonctionnalité Deep Research, conçue pour les recherches complexes, et les webhooks, qui permettent, selon l’entreprise, de « recevoir automatiquement des notifications pour certains événements API ».
Two new additions to the API:
📚 Deep research
🪝 Webhooks— OpenAI Developers (@OpenAIDevs) June 26, 2025
Pour afficher ce contenu issu des réseaux sociaux, vous devez accepter les cookies et traceurs publicitaires.
Ces cookies et traceurs permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d’intérêt.Plus d’infos.
Deep Research, l’agent de recherche autonome de ChatGPT, s’invite dans l’API
Présentée en début d’année, Deep Research est « l’une des fonctionnalités les plus puissantes de ChatGPT », rappelle OpenAI dans un communiqué. Cet agent autonome, disponible sur toutes les versions payantes de l’agent conversationnel depuis fin février, est conçu pour mener des recherches approfondies en un temps record. En réponse à une requête, il va parcourir, analyser et synthétiser des centaines de sources en ligne, dans tous les formats, y compris sur les sujets les plus complexes, puis fournir un rapport. Une tâche qui, pour un humain, nécessiterait plusieurs heures. En outre, Deep Research peut aussi scanner le contenu d’un dépôt GitHub.
Alimentée par o3-deep-research et o4-mini-deep-research, des modèles post-entraînés pour la recherche approfondie, cette fonctionnalité est désormais disponible dans l’API, via l’endpoint responses, précise OpenAI. Et son fonctionnement y est plus transparent que dans ChatGPT. « Contrairement à ChatGPT, où ce processus reste invisible pour l’utilisateur, l’API offre un accès direct et programmatique. Lorsqu’une requête est envoyée, le modèle planifie de manière autonome des sous-questions, utilise des outils comme la recherche web ou l’exécution de code, puis génère une réponse finale structurée », expliquent Glory Jain et Kevin Alwell, deux collaborateurs d’OpenAI, dans un guide d’utilisation qui détaille, étape par étape, comment optimiser son utilisation. En outre, OpenAI a dévoilé la tarification par requête des modèles o3 et o4-mini sur des pages dédiées.
Des entreprises comme BNY, Thomson Reuters, Carlyle et Rogo utilisent déjà la recherche approfondie dans l’API pour synthétiser des mémoires juridiques, effectuer des due diligences en capital-investissement, suivre les évolutions macroéconomiques et réglementaires, vante OpenAI dans son communiqué.
OpenAI lance les webhooks et revoit à la baisse le prix de la recherche web
En parallèle, la firme américaine a introduit d’autres nouveautés pour les développeurs sur son API :
- Les webhooks : certains événements, « comme l’achèvement d’une réponse, d’un fine-tuning ou d’un traitement batch », précise OpenAI, donnent désormais lieu à des notifications automatiques. « C’est particulièrement utile pour les tâches longues comme la recherche approfondie, afin d’en améliorer la fiabilité », souligne OpenAI.
- La recherche web à un prix plus accessible : les modèles o3, o3-pro et o4-mini peuvent désormais intégrer la recherche web pour 10 dollars les 1 000 appels. Pour GPT-4o et GPT-4.1, le tarif passe à 25 dollars les 1 000 appels.