Tibo InShape, Sora et la bataille du vrai et du faux dans la vidéo IA
De Sora 2 à l’affaire Tibo InShape, les avatars IA bouleversent notre rapport à l’identité et à la confiance en ligne. Décryptage avec Catherine Verdun, CEO de Certiphy.io.
En quelques mois, les avatars IA sont passés du statut de curiosité technologique à celui de phénomène de société. Avec des outils comme Sora 2 d’OpenAI, n’importe qui peut désormais créer son double numérique en quelques minutes. Mais cette démocratisation soulève des questions cruciales : que se passe-t-il quand on perd le contrôle de son image ? Comment distinguer le vrai du faux ? Décryptage, avec Catherine Verdun, cofondatrice de la plateforme Certiphy.io, d’une révolution qui bouleverse notre rapport à l’identité en ligne.
Catherine Verdun, CEO et cofondatrice
Après une longue expérience à la Société Générale, Catherine Verdun a cofondé, en 2024, Certiphy.io, une plateforme dédiée à la certification des contenus et des identités numériques, dont elle est la CEO.
Qu’est-ce qu’un avatar IA et quelles plateformes permettent d’en créer ?
Un avatar IA est une représentation numérique animée par l’intelligence artificielle. Contrairement à une simple image statique, il peut converser, exprimer des émotions et s’adapter aux contextes en temps réel. Il prend la forme d’un personnage 3D, d’une vidéo synthétique ou d’un assistant virtuel capable d’interactions autonomes.
Plusieurs géants de la tech ont lancé leurs solutions. OpenAI propose Sora 2 avec sa fonction Cameo, qui permet d’insérer son propre visage dans des vidéos générées en seulement trois minutes. Meta a développé des avatars pour le métavers (Horizon Worlds) et Meta Vibes, permettant de créer des vidéos où votre avatar danse et parle. TikTok offre Symphony, qui génère des avatars parlants avec synchronisation labiale. YouTube, quant à lui, ne propose pas d’avatars intégrés mais des outils comme Veo 3 Fast, de Google, pour créer des clips pour les Shorts.
Pourquoi Sora 2, et son option Cameo, représentent-ils un tournant ?
Sora 2 d’OpenAI marque un véritable tournant dans l’accessibilité des avatars IA. Avec sa fonction Cameo, il suffit d’enregistrer une courte vidéo de soi pour que l’IA recrée votre image, votre voix et vos expressions faciales. Vous pouvez ensuite vous voir intégré dans n’importe quelle scène : acteur d’un film, danseur sur scène, explorateur d’univers fantastiques…
Là où il fallait auparavant des studios, des équipements coûteux et des compétences techniques, n’importe qui peut désormais créer son avatar en quelques clics.
Ce qui change vraiment la donne, c’est l’accessibilité. Là où il fallait auparavant des studios, des équipements coûteux et des compétences techniques, n’importe qui peut désormais créer son avatar en quelques clics. Cette démocratisation soulève évidemment de nombreuses questions.
Quelles personnalités ont ouvert leur Cameo au public ?
Pour l’instant, la fonction Cameo n’est disponible qu’aux États-Unis et au Canada, ce qui explique que les premiers adoptants soient essentiellement nord-américains.
Aux États-Unis, plusieurs personnalités se sont prêtées au jeu : Sam Altman, le CEO d’OpenAI, l’homme d’affaires Mark Cuban, l’influenceur Jake Paul (28 millions d’abonnés Instagram), ainsi que les streamers xQc et Amouranth. Au Canada, l’entrepreneur québécois François Lambert a également rendu son avatar accessible.
En France, Tibo InShape a été le pionnier. En octobre dernier, le YouTubeur le plus suivi du pays avec 27 millions d’abonnés est devenu la première célébrité française à ouvrir son Cameo au public, en contournant les restrictions géographiques à l’aide d’un VPN.
Quelles ont été les conséquences de l’ouverture du Cameo de Tibo InShape ?
Son initiative a immédiatement déclenché une déferlante sur TikTok. Des milliers de vidéos ont été créées, avec des contenus très variés : certaines parodies étaient teintées d’humour et se voulaient plutôt amusantes (Tibo mangeant chez McDonald’s, etc.), mais d’autres ont rapidement franchi la ligne rouge.
Des utilisateurs ont détourné son image pour créer des vidéos très problématiques, au contenu explicitement raciste, lui faisant prononcer des insultes qu’il n’avait évidemment jamais validées. Face à l’ampleur des dérives, Tibo InShape a dû publier une mise au point : « Je ne valide pas les propos problématiques de ces vidéos. »
L’expérience de Tibo InShape illustre un phénomène inquiétant : plusieurs types de vidéos d’une même personne coexistent désormais, rendant l’authentification quasi impossible.
Concrètement, son audience se retrouve maintenant face à :
- Les vraies vidéos publiées par Tibo InShape lui-même,
- Les créations Sora 2 (avec le filigrane) où on lui fait dire des propos jamais prononcés, du divertissement aux contenus offensants,
- Les créations Sora 2 sans la mention Sora 2, puisqu’il est très facile de la supprimer,
- Les vidéos authentiques du créateur mais détournées à des fins malveillantes.
Note de la rédaction : L’influenceur a réagi à deux reprises à ces usages de son image sur Sora. Dans un premier temps, il a reconnu « clairement du débordement ». Ajoutant : « Je condamne donc fermement ces vidéos, surtout que c’est tellement bien fait qu’il y a des personnes qui pensent que c’est réellement moi. » Cependant, il n’a supprimé aucune des vidéos utilisant son Cameo, déclarant même deux jours plus tard : « Des personnes me font dire des mots problématiques que je ne valide pas, mais c’est dans le cadre d’une trend TikTok, c’est de l’humour noir (…) Quand je lis les commentaires, tout le monde kiffe ces vidéos, j’ai l’impression qu’on a enfin trouvé une trend qui fait rigoler tout le monde. »
Ouvrir publiquement son avatar IA revient-il à perdre définitivement le contrôle de son image ?
Le problème est double. Premièrement, tout créateur de contenu sait qu’à partir du moment où il publie sur les réseaux sociaux, il perd déjà une partie du contrôle : ses vidéos peuvent être découpées, sorties de leur contexte, détournées. Mais ouvrir son Cameo au public amplifie considérablement ce phénomène. Ce ne sont plus seulement ses vrais contenus qui peuvent être manipulés, mais des milliers de vidéos totalement inventées qui sont créées à son effigie, où on lui fait dire absolument n’importe quoi.
Le créateur se retrouve alors dans une situation encore plus kafkaïenne : il doit se justifier a posteriori, démentir en permanence, prouver qu’il n’a jamais dit ou fait telle chose. C’est un renversement complet de la charge de la preuve. Alors que les auteurs de ces contenus devraient avoir à démontrer leur authenticité, c’est à la victime de sans cesse prouver qu’ils sont faux.
Quel défi posent les avatars IA à l’authenticité et à la confiance en ligne ?
L’essor des avatars IA crée une crise de confiance inédite. Lorsque tout peut être généré, comment distinguer le vrai du faux ? Cette question touche aux fondements mêmes de notre rapport à la vérité numérique.
Si tout peut être faux, alors plus rien n’est crédible, y compris ce qui est vrai.
Le véritable danger ne réside pas seulement dans la création de faux contenus, mais dans un effet plus insidieux : les deepfakes deviennent si répandus que même les contenus authentiques deviennent suspects. Si tout peut être faux, alors plus rien n’est crédible, y compris ce qui est vrai.
Ce brouillage entre réel et artificiel soulève des questions critiques pour tous les acteurs. Comment une audience peut-elle vérifier l’authenticité d’une vidéo ? Comment éviter que cette confusion soit exploitée pour la désinformation ou pour nuire à des réputations ?
La confiance devient la principale victime de cette démocratisation des avatars IA.
Au final, la confiance devient la principale victime de cette démocratisation. Chaque vidéo nécessite désormais une potentielle vérification approfondie.
Comment restaurer la confiance face à ces contenus qui font légion ?
Face à cette crise de confiance, deux leviers apparaissent essentiels pour préserver notre capacité à distinguer le vrai du faux :
- Renforcer la transparence : l’audience doit pouvoir identifier immédiatement la nature du contenu auquel elle est exposée. Chaque vidéo devrait clairement indiquer : est-ce un contenu original ou détourné ? A-t-il été généré ou modifié par l’IA ? Cette distinction devrait être évidente au premier coup d’œil, grâce à des preuves impossibles à supprimer.
- Développer l’esprit critique : la technologie seule ne suffira pas. Nous devons tous adopter une posture de doute méthodique face aux contenus numériques : le faux par défaut. Se méfier par défaut de tout contenu non vérifié, même s’il semble fiable ; vérifier systématiquement les sources avant de partager ; croiser plusieurs sources indépendantes pour confirmer l’authenticité.
Au-delà des défis de régulation, ces avancées de l’IA posent une question existentielle : jusqu’où voulons-nous aller dans la création de doubles numériques de nous-mêmes ? Nous fragmentons notre identité en multiples versions qui échappent à notre contrôle et vivent leur propre vie sur Internet. Ces doubles numériques ne sont plus de simples représentations, ils deviennent des entités autonomes qui forgent leur propre réputation. Qui sommes-nous vraiment quand des dizaines de versions artificielles de nous-mêmes coexistent ?
Cette fragmentation touche à des fondements essentiels : l’identité, l’authenticité et la confiance.
Prenez la parole dans le dossier Tendances 2026
Associez votre expertise à l'un des contenus phares de BDM !
Je participe