OpenAI modifie la tarification de Codex et passe à la facturation au token
OpenAI modifie en profondeur la tarification de Codex. L’ancien système au message cède la place à une facturation indexée sur les tokens consommés. Le changement touche d’abord les clients Business et Enterprise.
Depuis le 2 avril 2026, OpenAI a mis à jour la tarification de Codex, son agent IA dédié au code, pour l’aligner sur le modèle de facturation par token de l’API, en remplacement de l’ancien système au message. Ce changement concerne d’abord les clients Business et Enterprise, et doit s’étendre aux abonnés Plus et Pro dans les semaines à venir.
Codex : un calcul des coûts désormais indexé sur la consommation réelle
Les crédits restent l’unité de facturation centrale, mais leur calcul change de base. Les estimations moyennes par message disparaissent au profit d’une correspondance directe entre les tokens consommés et les crédits débités. La consommation dépend donc de la répartition entre tokens d’entrée, tokens d’entrée mis en cache et tokens de sortie dans chaque tâche.
Pour le modèle GPT-5.3-Codex, le prix de référence s’établit à 1,75 dollar par million de tokens en entrée et 14 dollars par million de tokens en sortie, avec une fenêtre de contexte pouvant atteindre 400 000 tokens. Le mode rapide consomme deux fois plus de crédits. OpenAI estime que Codex coûte en moyenne entre 100 et 200 dollars par développeur et par mois, avec une forte variance selon le modèle utilisé, le nombre d’instances actives, les automatisations et le recours au mode rapide.
Tarification de référence pour GPT-5.3-Codex
- Tokens en entrée : 1,75 $ par million
- Tokens en sortie : 14 $ par million
- Fenêtre de contexte : jusqu’à 400 000 tokens
- Mode rapide : consommation doublée
- Coût moyen estimé par OpenAI : 100 à 200 $ par développeur et par mois
Simple transparence ou hausse des prix ?
OpenAI présente ce changement comme un gain de lisibilité, car le nouveau format permet de mieux cartographier la consommation de crédits par rapport à l’activité réelle du modèle. L’ancien système au message était en effet imprécis : une requête simple et une tâche de refactorisation multi-fichiers étant facturées au même tarif, sans que cela reflète la réalité des ressources consommées.
Mais la lisibilité n’est pas le seul enjeu. Ce basculement permet à OpenAI de facturer plus lourdement les utilisateurs intensifs, que l’ancien forfait sous-facturait mécaniquement. Pour un développeur aux usages légers (quelques requêtes ciblées par semaine, des tâches courtes sur des bases de code modestes), l’impact reste limité, voire neutre. Pour ceux qui travaillent en continu sur de grandes codebases, enchaînent les sessions longues et activent régulièrement le mode rapide, la facture pourrait en revanche exploser.
La stratégie d’OpenAI se rapproche de celle d’Anthropic
Dans un bilan publié début avril, la directrice des revenus d’OpenAI confirme un recentrage vers les clients professionnels, qui représentent déjà plus de 40 % du chiffre d’affaires de la société, avec un objectif de parité avec le grand public d’ici fin 2026. C’est précisément le terrain où Anthropic s’est imposé, avec Claude Code. La stratégie semble payante : Codex a franchi le cap des 3 millions d’utilisateurs hebdomadaires, contre un million en début d’année.
Mais la firme cherche désormais à monétiser plus efficacement son produit, alors que sa santé financière reste fragile. Pour la première fois, Anthropic revendique un chiffre d’affaires annualisé supérieur à celui d’OpenAI, à plus de 30 milliards de dollars, après avoir triplé ses revenus en un trimestre. En alignant la tarification de Codex sur la consommation réelle, OpenAI adopte une logique similaire : facturer à leur juste coût les usages intensifs plutôt que de les subventionner par un forfait fixe.