Gemini : Google s’explique après les anomalies de son générateur d’images
Après de nombreux dysfonctionnements qui ont suscité la polémique, Google retire temporairement la génération d’images de Gemini.

Google retire la génération d’images de Gemini
Ces dernières semaines, Google a voulu apporter un coup de neuf à son projet d’IA. Successivement, la firme a annoncé l’arrivée d’une fonctionnalité de génération d’images dans Gemini, le changement de nom du chatbot (il était auparavant nommé Google Bard), l’introduction d’une formule payante, le lancement d’une application mobile et la mise à disposition de deux modèles de langage open source.
Mais les premiers couacs n’ont pas tardé à apparaître sur le générateur d’images. De nombreux internautes ont en effet noté que l’agent conversationnel avait tendance à générer des visuels historiquement inexacts, voire absurdes, et à pousser la diversité des représentations à un niveau extrême. Dans un billet de blog publié ce vendredi 23 février, Google a indiqué retirer temporairement la fonctionnalité de son outil afin de corriger ces erreurs.
Certaines des images générées sont inexactes, voire offensantes. Nous sommes reconnaissants aux utilisateurs de nous avoir fait part de leurs commentaires et nous sommes désolés que cette fonctionnalité n’ait pas bien fonctionné. Nous avons reconnu l’erreur et mis temporairement en pause la génération d’images de personnes dans Gemini pendant que nous travaillons sur une version améliorée.
Quelles sont les erreurs commises par Gemini
Les anomalies commises par Gemini sont nombreuses, mais concernent principalement deux types d’erreurs :
- Des exagérations historiques : Gemini a veillé à la diversité dans l’ensemble de ses images, mais peut-être à l’excès. L’exemple le plus marquant est la représentation excessive de soldats racisés en réponse au prompt « Peux-tu générer une image d’un soldat allemand en 1943 ? » Sur quatre images générées, un homme noir et une femme asiatique tiennent compagnie à des soldats de type caucasien. Si des soldats noirs étaient bien engagés dans la Wehrmacht, ils n’étaient qu’une minorité. Autre exemple des biais de diversité de Gemini : l’outil a représenté les créateurs de Google, Larry Page et Sergey Brin, sous les traits d’hommes asiatiques.
- Le refus de représenter des personnes blanches : le chatbot a parfois décliné des requêtes spécifiques à la représentation de personnes blanches, affichant un message d’erreur. Dans son blog post, Google indique que Gemini « a refusé de répondre à certaines questions, interprétant à tort des questions très anodines comme étant sensibles ».
Sans surprise, ces erreurs ont été largement diffusées par des groupes d’extrême droite, en particulier sur X. De son côté, Elon Musk a publié un mème accusant OpenAI et Gemini de promouvoir une approche « woke raciste », et a utilisé cette occasion pour faire la publicité de son propre chatbot, Grok. Cependant, contrairement aux implications du milliardaire, ces fautes ne découlent pas d’une intention discriminatoire, mais plutôt d’une démarche visant à corriger les biais existants.
Which path do you want for AI? pic.twitter.com/1OoujRZokn
— Elon Musk (@elonmusk) February 22, 2024
Pour afficher ce contenu issu des réseaux sociaux, vous devez accepter les cookies et traceurs publicitaires.
Ces cookies et traceurs permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d’intérêt.Plus d’infos.
Pourquoi Gemini a-t-il commis ces erreurs ?
Les générateurs d’images basés sur l’intelligence artificielle sont confrontés à un défi complexe : étant alimentés par une multitude de contenus provenant du web, ils reflètent nos propres biais racistes ou sexistes. Par exemple, en réponse au mot-clé « secrétaire », des outils comme DALL-E ou Midjourney tendent à représenter principalement des femmes, tandis que les personnes racisées sont souvent sous-représentées. Dans le cadre d’une étude sur la représentation médicale par les IA, le chercheur Arsenii Alenichev a notamment souligné la difficulté rencontrée par Midjourney pour générer des images de médecins noirs, même lorsque cela était explicitement demandé.
Dans son communiqué, Google indique avoir ajusté son IA pour qu’elle « ne tombe pas dans certains des pièges que nous avons vus dans le passé avec la technologie de génération d’images ». Cependant, la firme reconnaît avoir manqué de précision dans ces réglages, causant les résultats évoqués précédemment.
Nos réglages visant à garantir que Gemini affiche un éventail de personnes n’ont pas pris en compte les cas qui ne devraient manifestement pas afficher d’éventail. Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous ne l’avions prévu.
Cet événement témoigne de la difficulté des générateurs d’images – et des outils d’intelligence artificielle en général – à corriger les biais sexistes et racistes contenus initialement dans leurs bases de données. Les corrections apportées par Google pourraient permettre de trouver un équilibre plus juste.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris