OpenAI lance GPT-5.4-Cyber, un modèle d’IA dédié à la cyberdéfense
Une semaine après Claude Mythos d’Anthropic, OpenAI entre dans la course à l’IA pour la cyberdéfense. La firme dévoile GPT-5.4-Cyber, un modèle plus permissif réservé aux professionnels vérifiés.
OpenAI élargit son programme « Trusted Access for Cyber » et lance GPT-5.4-Cyber, une variante de GPT-5.4 spécifiquement ajustée (fine-tunée) pour les usages défensifs en cybersécurité. L’annonce intervient une semaine après le dévoilement de Claude Mythos par Anthropic, dans un contexte de montée en puissance des modèles d’IA sur les tâches liées à la sécurité informatique.
GPT-5.4-Cyber : un modèle fine-tuné pour la cyberdéfense
OpenAI a dévoilé GPT-5.4-Cyber, une variante de son modèle GPT-5.4 entraînée pour être « cyber-permissive ». Cela signifie que le modèle abaisse le seuil de refus pour les tâches légitimes de cybersécurité et propose de nouvelles capacités défensives. Parmi elles, le « reverse engineering de binaires » : les professionnels de la sécurité peuvent analyser des logiciels compilés pour détecter des malwares ou des vulnérabilités, sans avoir besoin d’accéder au code source.
Le déploiement est pour l’instant limité. OpenAI précise que GPT-5.4-Cyber est réservé, dans un premier temps, à des éditeurs de sécurité, des organisations et des chercheurs et chercheuses ayant fait l’objet d’une vérification préalable. L’entreprise présente ce modèle comme une étape préparatoire à l’arrivée de modèles encore plus performants dans les prochains mois.
Moins de friction pour les cyberdéfenseurs
OpenAI explique que l’un des problèmes récurrents signalés par ses partenaires est que les modèles précédents refusaient parfois de répondre à des requêtes légitimes de sécurité. Ce, en raison de l’ambiguïté inhérente de leur nature à double usage, c’est-à-dire exploitables aussi bien en défense qu’en attaque. Le programme « Trusted Access for Cyber », lancé en février 2026, s’enrichit donc désormais de plusieurs niveaux de vérification, où chaque palier débloque des capacités plus étendues. Deux voies d’accès sont proposées :
- Les professionnels individuels peuvent vérifier leur identité sur chatgpt.com/cyber, via un processus d’authentification par pièce d’identité officielle.
- Les entreprises peuvent demander un accès pour l’ensemble de leur équipe auprès de leur représentant OpenAI.
OpenAI annonce par ailleurs un engagement de 10 millions de dollars en crédits API via son Cybersecurity Grant Program. « Personne ne devrait décider qui a le droit de sécuriser ses systèmes », a justifié Fouad Matin, chercheur en cybersécurité chez OpenAI.
Une course ouverte entre laboratoires d’IA
L’annonce s’inscrit dans un calendrier serré. Le 7 avril dernier, Anthropic dévoilait Claude Mythos Preview, un modèle jugé trop dangereux pour être rendu public, et lançait Project Glasswing, une initiative de cyberdéfense réunissant une cinquantaine d’organisations partenaires (dont AWS, Apple, Microsoft ou CrowdStrike). Anthropic s’engageait alors à hauteur de 100 millions de dollars en crédits et 4 millions de dollars de dons directs.
Les deux approches diffèrent sensiblement. Anthropic a opté pour un accès très restreint, réservé à un cercle fermé d’acteurs critiques. OpenAI privilégie une logique plus ouverte, avec un système de vérification en self-service et l’ambition affichée de « démocratiser l’accès » aux outils de cyberdéfense. Cette montée en puissance des modèles d’IA sur les tâches cyber n’est pas nouvelle : dès février 2026, OpenAI classait GPT-5.3-Codex comme « hautement performant » sur les tâches de cybersécurité, déployant à cette occasion un dispositif de protection dédié. Dans un contexte où la France figurait en 2025 parmi les pays européens les plus ciblés par les cyberattaques, l’accélération de la course à l’IA cyber entre les deux principaux laboratoires américains devrait être suivie de près par les professionnels de la sécurité.