
L’IA de Google peut désormais créer des musiques de 3 minutes avec un simple prompt
Google franchit une nouvelle étape dans la génération musicale par intelligence artificielle : son modèle Lyria est désormais capable de composer des morceaux complets allant jusqu'à 3 minutes, contre des extraits beaucoup plus courts auparavant. Il suffit d'un simple prompt textuel pour obtenir une création audio structurée, avec intro, développement et conclusion.
Cette évolution est significative pour le secteur de la création musicale assistée par IA. Passer de courts clips à des compositions de 3 minutes représente un saut qualitatif majeur : c'est la durée standard d'une chanson commerciale, ce qui ouvre la voie à des usages professionnels — habillages sonores, bandes originales courtes, prototypes pour compositeurs. Cela positionne Google plus directement en concurrence avec des outils comme Suno ou Udio, qui permettent déjà ce type de génération.
Lyria est le modèle audio de Google DeepMind, intégré notamment à YouTube via des fonctionnalités expérimentales. L'annonce de cette extension de durée intervient dans un contexte de course intense entre les grands acteurs technologiques sur la génération multimodale — texte, image, vidéo et désormais audio longue durée. Les détails techniques sur l'architecture de cette mise à jour restent pour l'instant limités.
La question des droits d'auteur et de la rémunération des artistes dont les œuvres ont servi à entraîner ces modèles reste entière, et cette montée en puissance de Lyria ne manquera pas de raviver le débat au sein de l'industrie musicale.
Les créateurs de contenu, réalisateurs indépendants et développeurs de jeux européens disposent désormais d'un outil de génération musicale complète (3 minutes) directement exploitable dans leurs productions sans recourir à des compositeurs.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



