Superintelligence : le projet d’OpenAI est-il faisable ou même souhaitable ?
OpenAI travaille sur une IA capable de dépasser l’homme. Faut-il vraiment s’en réjouir ?
Et si l’intelligence artificielle finissait par surpasser l’être humain ? Ce scénario, encore réservé à la science-fiction il y a cinq ans, paraît aujourd’hui de plus en plus plausible à mesure que les technologies d’IA génératives progressent. Sam Altman, le PDG d’OpenAI, a d’ailleurs fait de la création de cette « superintelligence » son objectif ultime. Cette perspective relève-t-elle de la réalité ou du fantasme ? Et est-elle vraiment souhaitable ?
Superintelligence : l’obsession de Sam Altman
« La superintelligence sera la technologie la plus révolutionnaire jamais inventée par l’humanité et pourrait nous aider à résoudre nombre des problèmes les plus importants de notre monde. Cependant, son immense pouvoir pourrait également s’avérer très dangereux et mener à l’affaiblissement de l’humanité, voire à son extinction. »
Ces propos, plus inquiétants qu’enthousiasmants, ont été publiés par OpenAI dans sa newsroom le 5 juillet 2023. La startup, alors auréolée du succès fulgurant de ChatGPT, fraîchement propulsé par le modèle GPT-4, savourait le triomphe de son introduction auprès du grand public. Depuis, l’outil n’a cessé de se perfectionner : analyse d’images, mode vocal avancé, génération visuelle, recherche web… Autant d’innovations qui rapprochent OpenAI de son ambition la plus vertigineuse.
Et Sam Altman vise le court terme. Fin 2024, il projetait la concrétisation d’une IA superintelligente « d’ici quelques milliers de jours ». En juin dernier, il la considérait même comme déjà entamée.
« L’humanité est sur le point de créer une superintelligence numérique et pour l’instant, c’est beaucoup moins étrange qu’on ne l’aurait imaginé. Les robots ne déambulent pas encore dans les rues, et la plupart d’entre nous ne passons pas nos journées à dialoguer avec une IA. […] Et pourtant, nous avons récemment conçu des systèmes qui surpassent l’intelligence humaine à bien des égards », écrivait Sam Altman sur son blog en juin 2025.
Sam Altman n’est d’ailleurs pas le seul à partager cet enthousiasme pour la superintelligence. Dans une posture tout aussi messianique, Mark Zuckerberg, qui peine pourtant à construire une IA utile, imagine de son côté une « intelligence artificielle personnelle », qui « aidera chacun à atteindre ses objectifs, à créer ce qu’il souhaite voir dans le monde, à vivre toutes sortes d’aventures, à être un meilleur ami pour ses proches et à devenir la personne qu’il aspire à être ».
Qu’est-ce qu’une superintelligence ?
Le terme « superintelligence » désigne une forme d’intelligence artificielle capable de dépasser les capacités cognitives humaines dans pratiquement tous les domaines : créativité, raisonnement scientifique, prise de décision ou compréhension sociale. Il s’agit d’un concept théorique dont OpenAI s’inspire, mais qui trouve son origine dans l’ouvrage Superintelligence: Paths, Dangers, Strategies, publié en 2014 par le philosophe suédois Nick Bostrom. L’auteur y décrit un système capable d’améliorer ses propres capacités jusqu’à échapper au contrôle de ses créateurs.
Pour bien comprendre ce que recouvre cette notion, il convient de distinguer deux niveaux d’intelligence artificielle :
- L’intelligence artificielle faible : elle désigne les systèmes actuels, spécialisés dans des tâches précises comme la traduction automatique, la génération d’images, la reconnaissance vocale ou la conduite autonome. Leur champ d’action reste limité et dépend étroitement des données humaines sur lesquelles ils ont été entraînés. ChatGPT, malgré ses performances, relève de cette catégorie : il simule certaines formes d’intelligence humaine grâce à l’analyse statistique du langage, mais ne comprend pas réellement ce qu’il produit et n’agit pas de manière autonome.
- L’intelligence artificielle générale : elle correspond à une machine capable de raisonner, d’apprendre et de s’adapter à n’importe quelle situation, à la manière d’un être humain. Contrairement à l’IA faible, elle ne se limite pas à un domaine particulier et peut transférer ses connaissances d’un contexte à un autre. La superintelligence, dans cette logique, en serait l’évolution ultime : une IA capable de s’améliorer elle-même de manière exponentielle, sans intervention humaine.
Une telle entité dépasserait l’homme non seulement par sa vitesse de calcul, mais aussi par la qualité de son raisonnement, sa créativité et sa compréhension du monde. Elle soulèverait toutefois des défis considérables en matière de contrôle, d’éthique et de sécurité.
Superintelligence : est-ce vraiment possible ?
Si Nick Bostrom a théorisé la superintelligence et mis en garde contre ses dangers, OpenAI semble être la première organisation à envisager avec autant de ferveur sa concrétisation. Mais cet horizon est-il réellement atteignable ?
En théorie, oui, répondent de nombreux spécialistes. Yann Le Cun, responsable de l’intelligence artificielle chez Meta et pionnier de l’IA générative, affirmait ainsi en février dernier qu’il ne faisait « aucun doute » que l’avènement d’une superintelligence surviendrait « à un moment ou un autre ». Sur le plan du calendrier, toutefois, le chercheur franco-américain se montre beaucoup plus réservé que Sam Altman. Selon lui, les modèles d’IA générative, tels qu’ils sont conçus aujourd’hui, restent encore très éloignés d’une véritable superintelligence.
Les techniques actuelles, utilisées dans les chatbots et autres, ne sont pas suffisantes […] La compréhension du monde physique est beaucoup plus complexe que la compréhension et la production de langage, explique Yann Le Cun.
C’est là que réside la principale limite des modèles actuels : ils manipulent le langage sans réellement en comprendre le sens. Leur intelligence demeure purement statistique, fondée sur des corrélations de mots plutôt que sur une véritable compréhension du monde. En somme, l’écart à combler reste considérable.
Demis Hassabis, directeur de Google DeepMind, estime toutefois qu’une intelligence artificielle générale pourrait voir le jour aux alentours de 2030. Une échéance plus éloignée que celle rêvée par Sam Altman, mais tout de même extrêmement proche.
Faut-il ralentir le développement des IA ?
La superintelligence n’apparaît donc plus comme une hypothèse lointaine. Mais l’émergence d’une telle innovation sans garde-fous s’accompagne de risques considérables : manque de contrôle humain, manipulation d’informations, pouvoir démesuré concentré entre quelques mains…
Le 22 octobre 2025, plus de 800 chercheurs, entrepreneurs et personnalités ont signé un appel lancé par le Future of Life Institute demandant la suspension des travaux sur la superintelligence. Parmi eux, Geoffrey Hinton, Stuart Russell ou encore Steve Wozniak alertent sur l’absence de garanties scientifiques concernant la sécurité de tels systèmes. Leur texte appelle à un moratoire, le temps d’évaluer les risques réels d’une technologie susceptible de bouleverser l’équilibre du monde.
Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population, peut-on lire sur la page de l’initiative.
Les grands laboratoires d’intelligence artificielle se déclarent favorables à une régulation, mais prônent une approche différente. Sam Altman et Demis Hassabis plaident pour la mise en place d’une gouvernance mondiale, estimant qu’un ralentissement de la recherche laisserait le champ libre à des acteurs moins scrupuleux. Le programme Superalignment, lancé par OpenAI en 2023, s’inscrit dans cette logique : il vise à vérifier et tester la fiabilité des futurs systèmes afin d’en garantir la sécurité.
Mais plusieurs experts, à l’instar de Timnit Gebru et Yoshua Bengio, y voient surtout une manière pour ces entreprises de conserver le contrôle sur un cadre qu’elles ont elles-mêmes contribué à rendre indispensable. Depuis cinq ans, le développement des modèles d’IA les plus puissants s’est opéré sans véritable supervision publique. Les géants du secteur ont avancé à un rythme effréné, imposant leurs technologies avant même que des règles ne soient fixées, selon une stratégie de « fait accompli ». Dans ces conditions, on peut légitimement douter de la capacité des entreprises d’IA à concevoir une superintelligence réellement bénéfique à tous.
Prenez la parole dans le dossier Tendances 2026
Associez votre expertise à l'un des contenus phares de BDM !
Je participe