Les 10 modèles d’IA les plus performants en janvier 2025
Pour ce premier classement de l’année 2025, Google conserve la tête en plaçant deux modèles Gemini aux premières places.

Google continue de résister à OpenAI avec deux modèles Gemini installés tout en haut de la Chatbot Arena, un classement qui évalue de manière objective les performances des modèles d’intelligence artificielle.
Et pour ce premier mois de 2025, le classement ne connaît pas grand changement dans les premières places. On fait le point !
Les 10 modèles de langage les plus performants en janvier 2025
Bien que le classement ait peu évolué, Gemini continue d’affirmer sa position dominante en tête, qu’il occupe désormais depuis trois mois. En janvier 2025, cette avance s’accentue avec un score Elo de 1380 pour son modèle Gemini 2.0. Le marché des agents covnersationnels reste néanmoins marqué par la suprématie de Google et OpenAI, plaçant chacun trois modèles parmi les six premières positions.
De leur côté, les modèles chinois poursuivent leur progression au sein du classement. Deux d’entre eux figurent désormais dans le top 10 : DeepSeek-V3, qui s’était classé onzième en décembre, et Step-2, développé par l’entreprise chinoise StepFun, qui atteint pour la première fois la septième position.
Enfin, la France ne cesse de rétrograder au classement perdant à nouveau 5 places ce mois-ci et occupant seulement la 30e place avec le modèle Mistral-Large-2407 de Mistral.
Voici le classement des modèles génératifs les plus performants en janvier 2025 :
- Gemini 2.0 : 1380 (score Elo)
- Gemini-Exp-1206 : 1374
- ChatGPT 4o Latest : 1365
- Gemini 2.0 Flash : 1356
- o1-2024-12-17 : 1351
- o1-preview : 1335
- DeepSeek-V3 : 1320
- Step-2-16K-Exp : 1306
- o1-mini : 1306
- Gemini 1.5 Pro : 1303
Retrouver le classement complet
Quels sont les critères de la Chatbot Arena ?
La Chatbot Arena est une plateforme créée par la Large Model Systems Organization (LMSYS) pour évaluer et comparer les performances des modèles d’intelligence artificielle de manière objective et en temps réel. Elle repose sur un système de duels entre deux modèles anonymisés, où des utilisateurs humains jugent lequel des deux a fourni la meilleure réponse à une requête donnée. Ces évaluations permettent de calculer un score Elo pour chaque modèle, reflétant leur niveau relatif de performance.
Ce système, qui est notamment utilisé aux échecs ou dans le esport, fonctionne comme une cote évolutive : lorsqu’un modèle l’emporte contre son adversaire avec un score Elo plus élevé, il accumule des points, alors qu’il en perd lorsqu’il perd contre un adversaire supposé plus faible.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris