Adobe présente son futur générateur de musique par IA : ce qu’il faut savoir

Encore en développement, Projet Music GenAI Control sera capable de générer des mélodies à partir de requêtes textuelles.

L'outil d'Adobe proposera une interface d'édition complète, permettant d'affiner minutieusement chaque piste générée. © filins - stock.adobe.com

Project Music GenAI Control, le générateur de musique par IA d’Adobe, se dévoile

Adobe poursuit le développement d’outils alimentés par l’intelligence artificielle. Après le déploiement d’Adobe Firefly, son IA de génération, puis de GenStudio, qui vise à simplifier la production de contenu, l’entreprise dévoile Project Music GenAI Control, « un outil d’IA générative qui permet de générer et d’éditer de la musique », détaille l’entreprise dans un blog post.

Cette nouvelle solution permet, concrètement, de générer des pistes audio à partir des requêtes textuelles formulées par l’utilisateur, de la même manière qu’un générateur de texte par IA comme ChatGPT ou qu’une IA génératrice d’images comme Midjourney, tout en mettant à disposition une interface complète permettant de « contrôler minutieusement l’édition de ces sons en fonction de besoins précis », précise la note de blog. Dépeint comme un « projet expérimental » chapeauté par les équipes d’Adobe Research, Projet Music GenAI Control en est « encore aux premiers stades de développement », explique l’entreprise. Aucune date de déploiement n’a, pour l’heure, été communiquée.

Avec Project Music GenAI Control, l’IA générative se positionne comme cocréateur. Elle aide les artistes à créer de la musique pour leurs projets, qu’il s’agisse de diffuseurs, des spécialistes du podcast ou de toute autre personne ayant besoin d’un son dont l’ambiance, le ton et la durée sont parfaitement adaptés, décrypte Nicholas Bryan, senior research scientist chez Adobe Research.

Comment fonctionne Projet Music GenAI Control ?

Comme le montre la vidéo de présentation ci-dessous, Projet Music GenAI Control reprend les principes fondamentaux de la génération de contenu alimentée par l’intelligence artificielle. L’utilisateur doit simplement saisir un prompt adapté à son projet, tel que « folk mélancolique » ou « emo rock », pour que la solution se charge de générer une piste audio. Il est, bien sûr, possible d’affiner la requête pour parfaire le rendu de la mélodie. « Une fois que les outils ont généré la musique, les différentes possibilités d’édition sont directement intégrées dans le workflow », complète l’entreprise. L’interface d’édition permet notamment à l’utilisateur de :

  • Remodeler la structure de la mélodie,
  • Modifier le tempo,
  • Concevoir une boucle (ou loop, en anglais) pouvant se répéter indéfiniment,
  • Renforcer ou diminuer l’intensité du son,
  • Étendre ou réduire la durée de la mélodie.

D’après l’entreprise, l’objectif de Project Music AI Control n’est pas de créer de simples mélodies génériques, mais bien de proposer « l’équivalent d’une maîtrise au pixel près pour de la musique », comparable à ce que peut offrir un logiciel de création graphique comme Photoshop. Après déploiement, Projet Music GenAI Control, qui est développé en partenariat avec l’Université de Californie à San Diego (USCD) et la Carnegie Mellon School of Computer Science, se destinera à des musiciens en quête d’inspiration, mais pourra également être exploité par des créateurs de contenu (podcasts, vidéos, etc.).

 

Sujets liés :
Publier un commentaire
Ajouter un commentaire

Votre adresse email ne sera pas publiée.

Les meilleurs outils pour les professionnels du web