Comment Adobe intègre l’IA générative dans sa stratégie : entretien avec Zeke Koch
La stratégie d’Adobe quant à l’IA générative va-t-elle payer ? Avec Firefly et ses différents modèles, les agents IA se multiplient au sein des logiciels de la firme, tandis que l’application web se transforme en plateforme créative tout-en-un.

Grâce à une stratégie bien rodée et réfléchie, Adobe intègre petit à petit les fonctionnalités de son IA générative Firefly au sein de ses différents logiciels créatifs phares. Mais après avoir démontré le potentiel de ses modèles d’IA sur l’application web Firefly, la firme transforme parallèlement celle-ci en une véritable plateforme créative. Zeke Koch, VP of Product Management pour les applications et services d’IA générative, que BDM a pu rencontrer à l’occasion d’Adobe MAX, décrypte la stratégie et la vision d’Adobe quant à l’IA.
Zeke Koch, VP of Product Management GenAI & Firefly chez Adobe
Après avoir travaillé chez Microsoft pendant une décennie, Zeke Koch est arrivé chez Adobe en 2005 lors du rachat de Macromedia. Depuis, il a occupé les postes de VP of Product, Content and Moderation pour Adobe Stock et de Senior Director of Product Management pour les produits de publication numérique, ainsi que des rôles de direction pour la stratégie de plateforme et pour les équipes de gestion des produits mobiles et de bureau. Aujourd’hui, il est vice-président de la gestion de produit pour les applications et services d’IA générative d’Adobe, donc de Firefly.
Pour les lecteurs de BDM, pouvez-vous vous présenter rapidement et décrire votre rôle actuel chez Adobe ?
Je m’appelle Zeke Koch et je suis vice-président en charge du product management chez Adobe, ce qui veut dire que je m’occupe de ce que nous construisons et pourquoi nous le construisons, spécifiquement pour tout ce qui touche à l’IA générative. Cela inclut évidemment Firefly, qui est à la fois une famille de modèles d’IA générative (image, vidéo, audio, vecteurs, traduction…) et une interface web pour y accéder.
Firefly est arrivée dans un paysage déjà bien occupé par des outils comme Midjourney, DALL·E ou Runway. En quoi Firefly se distingue-t-elle dans cet univers d’IA génératives ?
La première chose, c’est que nos modèles sont sûrs d’un point de vue commercial. Cela signifie qu’ils sont entraînés uniquement sur des contenus sur lesquels nous avons un droit légal d’utilisation, sans enfreindre la propriété intellectuelle d’autrui.
On cherche à donner aux utilisateurs et utilisatrices un contrôle créatif poussé.
Ensuite, on cherche à donner aux utilisateurs et utilisatrices un contrôle créatif poussé. Un professionnel voit toujours comment améliorer une création, donc on veut que nos modèles puissent s’adapter finement à cette exigence esthétique.
Enfin, Firefly est intégré dans tout l’écosystème Adobe. On ne propose pas juste une interface web : Firefly est pensé pour fonctionner directement dans Photoshop, Express, Premiere Pro, etc.
Adobe, malgré une interface web pour Firefly, a rapidement intégré ses fonctionnalités dans différents logiciels. On peut y voir une forme d’IA agentique avant l’heure. Cette décision faisait-elle partie de la stratégie initiale ?
Oui, cela faisait partie de la stratégie dès le départ. Dès le début, notre vision était d’aider les créateurs et créatrices à raconter leurs histoires plus efficacement, en intégrant ces outils directement dans les logiciels qu’ils utilisent tous les jours.
Par exemple, pour les fonctions de type « remplissage génératif », il fallait d’abord créer un modèle fondamental qui comprend le monde visuellement. Ensuite, seulement, on pouvait l’intégrer dans Photoshop.
L’objectif : garder les créateurs dans un « état de flow ».
Je me souviens que ma sœur, qui est monteuse vidéo, trouvait absurde de devoir exporter un fichier de Premiere Pro pour tester une fonctionnalité sur la web app Firefly. Elle voulait que tout soit directement dans Premiere. C’est ça l’objectif : garder les créateurs dans un « état de flow », sans leur faire changer de plateforme sans arrêt.
La version web de Firefly était à l’origine une vitrine technologique. Aujourd’hui, elle évolue comme un outil de travail à part entière. Cela reflète-t-il un changement de stratégie ?
Oui, à l’origine, le site Firefly était conçu comme une démonstration technologique. Mais il a très vite dépassé nos attentes en termes de croissance. On a vu arriver des personnes qui n’avaient jamais utilisé nos logiciels desktop et qui préféraient la simplicité du web. Ces utilisateurs commencent dans Firefly, puis passent sur Photoshop ou Premiere Pro pour affiner.
Aujourd’hui, la stratégie a clairement changé : ce n’est plus une vitrine, c’est un outil à part entière, qui continue d’évoluer avec de nouveaux modèles, de nouvelles fonctionnalités, comme les Boards collaboratifs.
Parlons de Boards, l’une des nouvelles fonctionnalités phares sur la version web de Firefly. D’où vient cette idée ?
Le développement de Boards a commencé bien avant l’ère de l’IA générative. Dans tous nos échanges avec les créateurs – que ce soit dans le cinéma, le design produit, ou autre -, le moodboard est un point de départ essentiel : un endroit où l’on jette des images, des matières, des couleurs, pour exprimer une idée sans mot.
Ce qui change avec Firefly, c’est qu’il est possible d’y générer des images et de collaborer, avec des outils et fonctionnalités que j’affectionne particulièrement. Par exemple, on peut désormais sélectionner des éléments spécifiques (couleur, texture, lumière…) avec une pipette, et demander au modèle de recomposer des images à partir de ces inspirations.
Boards est hébergé sur le web car c’est plus simple à développer ainsi, mais il est clairement conçu pour les créateurs professionnels.
Adobe a récemment présenté ses premiers agents IA pour ses logiciels créatifs, capables d’automatiser certaines tâches. Ces premiers exemples dessinent-ils une stratégie plus large ? Jusqu’où va votre vision d’un écosystème orchestré d’IA créatives ?
Oui, on a une vision large, mais tout dépend de la définition qu’on donne à “agent”. Moi, j’ai travaillé dans les années 90 sur le célèbre paperclip d’Office… C’était déjà une forme d’agent.
Aujourd’hui, l’idée, c’est que l’on puisse communiquer en langage naturel avec les outils Adobe, et qu’ils comprennent des demandes de plus en plus complexes. Demander « rends cette image plus steampunk », ça suppose de comprendre ce style, d’identifier les bons paramètres esthétiques, puis de les appliquer. Donc il nous faut plusieurs agents spécialisés – couleur, texte, vidéo, etc. – et les orchestrer. Il y en aura beaucoup, sûrement plus d’agents que d’utilisateurs à terme.
Une des grandes difficultés, c’est de faire en sorte que ces agents ne dégradent pas la qualité visuelle au fil des ajustements. Dans certains systèmes, plus on modifie, plus on perd l’intention initiale ou la qualité esthétique. Chez Adobe, on veut que l’utilisateur garde le contrôle créatif à chaque étape. C’est plus facile dans Express, où les objets sont séparés, que dans Photoshop où tout est plus fusionné. Mais tout cela progresse rapidement.
Vous mentionniez GPT Image et d’autres modèles : que pensez-vous des innovations très rapides du secteur, et comment Adobe y réagit-il ?
C’est surtout de la surprise et de l’enthousiasme. On adore voir les nouvelles capacités qui émergent, ça nourrit plein d’idées. Beaucoup de ces innovations sont soit open source, soit décrites dans des publications scientifiques. Même si on doit réentraîner nos modèles pour garantir la sécurité commerciale, on peut s’inspirer des idées.
Par exemple, GPT Image a été intégré dans la web app Firefly, avec une certaine transparence sur les limites, notamment quant à l’usage commercial. Et le fait que ces modèles fonctionnent bien nous confirme que certaines approches sont viables. Cela nous permet de bâtir nos prochains modèles sur des bases solides.
Quels retours avez-vous reçu des professionnels qui utilisent Firefly ? L’adoption est-elle fluide ? Et comment répondez-vous aux créateurs qui craignent que l’IA ne les remplace ?
Le retour principal que je reçois, c’est une demande pour que Firefly comprenne mieux les intentions créatives. Par exemple : améliorer le photoréalisme, bien gérer le ton de peau, ou encore le bon nombre de doigts.
Sur ce point, on a mis l’accent sur le modèle Image 4, qui vise un rendu très réaliste, avec une esthétique proche de celle d’un professionnel.
Si on a une vision, si on veut exprimer une idée, les outils d’IA permettent de mieux y arriver.
Concernant les craintes, je comprends. Mais pour moi, c’est comme quand j’ai eu mon premier enfant : je voulais prendre de belles photos et j’ai acheté un appareil pro. Mon frère, photographe, faisait de meilleures photos que moi… avec un iPhone. Ce n’est pas la technologie qui fait la qualité, c’est l’œil et l’intention du créateur.
L’IA est juste un outil supplémentaire. Si on a une vision, si on veut exprimer une idée, ces outils permettent de mieux y arriver. Je ne pense pas que les créatifs devraient avoir peur. Au contraire.
Un dernier conseil à donner aux créateurs et créatrices curieux qui hésitent encore à se lancer avec Firefly ou l’IA générative en général ?
Soyez curieux, testez tout. Chaque nouveau média donne naissance à des œuvres dont on parle encore des années plus tard. Toutes les technologies qui nous paraissent normales aujourd’hui – cinéma, couleur, son… – étaient autrefois novatrices et effrayantes. Alors explorez, jouez, cherchez ce qui vous inspire. Même un outil vieux de 20 ans peut donner un résultat magique si on l’utilise avec passion.
Community managers : découvrez les résultats de notre enquête 2025
Réseaux, missions, salaire... Un webinar pour tout savoir sur les CM, lundi 29 septembre à 11h !
Je m'inscris