Aller au contenu principal
Streaming : l’IA fait exploser l’offre et dilue d’autant les revenus des artistes
ÉthiqueFrenchWeb1h

Streaming : l’IA fait exploser l’offre et dilue d’autant les revenus des artistes

1 source couvre ce sujet·Source originale ↗·

Sur Deezer, 75 000 titres générés par intelligence artificielle sont désormais téléversés chaque jour, représentant près de 44 % de l'ensemble des nouveaux contenus mis en ligne sur la plateforme. Ce chiffre a été multiplié par sept en à peine plus d'un an, témoignant d'une accélération massive de la production musicale automatisée. Paradoxalement, ces titres ne concentrent qu'entre 1 % et 3 % des écoutes effectives, révélant un fossé considérable entre volume produit et audience réelle.

Ce déséquilibre a des conséquences directes sur les revenus des artistes humains. Les modèles de rémunération des plateformes de streaming sont fondés sur une répartition proportionnelle des écoutes : chaque flux génère une fraction du revenu total, redistribuée selon la part d'audience de chaque titre. En inondant le catalogue de contenus peu écoutés, la musique IA dilue mécaniquement ce pool de revenus, sans pour autant capter une audience significative. Les artistes indépendants, dont les marges sont déjà ténues, sont les premiers touchés par cet effet de dilution.

Ce phénomène s'inscrit dans une tension plus large entre plateformes, ayants droit et créateurs à l'ère de la génération automatisée. Des services comme Deezer, Spotify ou YouTube Music peinent à établir des règles claires sur l'indexation des contenus synthétiques, faute de cadre réglementaire adapté. Les sociétés de gestion collective et les syndicats d'artistes réclament des mécanismes de filtrage ou de séparation des pools de revenus, une bataille qui s'annonce centrale dans les négociations à venir avec les majors et les législateurs européens.

Impact France/UE

Deezer étant une plateforme française et les sociétés de gestion collective européennes réclamant des mécanismes de séparation des pools de revenus, la France et l'UE sont en première ligne de la bataille réglementaire sur la rémunération des artistes face au contenu musical généré par IA.

💬 Le point de vue du dev

44 % des nouveaux titres sur Deezer viennent de l'IA, pour 1 à 3 % des écoutes. Le problème, c'est pas l'audience, c'est la mécanique de rémunération : le pool se dilue quand même, les artistes humains paient la note sans que personne n'écoute vraiment ces tracks. Deezer est française, les sociétés de gestion collective sont sur le coup, et la bataille des pools séparés va être le vrai sujet des 18 prochains mois côté UE.

À lire aussi

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms
1The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée
2Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente actuellement aux États-Unis une fonctionnalité qui réécrit automatiquement, via intelligence artificielle générative, les titres des articles et pages web apparaissant dans ses résultats de recherche. C'est The Verge qui a révélé l'existence de ce test après avoir constaté que plusieurs de ses propres articles affichaient dans Google des titres que sa rédaction n'avait jamais rédigés. Un article intitulé « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » s'est ainsi retrouvé réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement entendre que The Verge en ferait la promotion. Interrogés, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à plus grande échelle. Selon leurs explications, l'objectif est d'identifier sur une page le contenu susceptible de constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que cette réécriture algorithmique se fait sans aucune indication visible pour l'internaute, et produit parfois des titres qui trahissent le sens original, voire le contredisent. Pour les éditeurs et médias, l'enjeu est considérable : leurs titres, soigneusement formulés pour refléter leur ligne éditoriale, peuvent être remplacés par une version déformée sans leur consentement ni même leur information. The Verge dénonce une atteinte directe à sa capacité à promouvoir son propre travail de manière honnête, soulignant que sa rédaction investit précisément du temps pour éviter le clickbait, une démarche que Google semble court-circuiter en imposant ses propres formulations. Mallory De Leon a certes précisé qu'un éventuel produit final n'utiliserait pas d'IA générative, sans expliquer comment Google envisagerait alors de réécrire des titres autrement. Cette révélation survient dans un contexte déjà tendu entre Google et les médias sur la question des contenus générés ou altérés par IA. The Verge avait documenté à deux reprises ces derniers mois des cas où l'algorithme de recommandation Discover de Google « hallucinait » des titres racoleurs et erronés pour ses articles. La pratique de réécriture des titres n'est pas entièrement nouvelle, Google ajuste les titres affichés dans ses résultats depuis des années via des règles heuristiques, mais le recours à l'IA générative représente un saut qualitatif dans la capacité de déformation du message original. Si ce test devait être généralisé, il soulèverait des questions fondamentales sur le contrôle éditorial à l'ère des moteurs de recherche pilotés par IA, et potentiellement des recours juridiques de la part d'éditeurs dont la réputation pourrait être affectée par des titres qu'ils n'ont pas écrits.

UELes éditeurs et médias français pourraient invoquer la directive européenne sur les droits voisins pour contester cette réécriture non consentie de leurs titres dans les résultats de recherche Google.

ÉthiqueOutil
1 source
L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée
3Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente discrètement une fonctionnalité qui réécrit automatiquement les titres des articles et pages web apparaissant dans ses résultats de recherche, en s'appuyant sur l'intelligence artificielle générative. C'est The Verge qui a mis au jour cette pratique après que plusieurs membres de sa rédaction ont constaté que des titres qu'ils n'avaient jamais rédigés apparaissaient dans Google Search à la place des leurs. L'exemple le plus frappant : le titre complet « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » a été réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement croire que The Verge promouvait ce type d'outil. Contactés par le média, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à grande échelle. L'objectif affiché est d'identifier, dans le contenu d'une page, ce qui pourrait constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que ces titres réécrits par l'IA sont inexacts et trompeurs, et qu'ils apparaissent sans aucune mention indiquant que Google a substitué ses propres mots à ceux des auteurs originaux. Pour les éditeurs, c'est une atteinte directe à leur ligne éditoriale et à leur capacité à présenter leur propre travail. The Verge souligne avoir investi un effort considérable pour rédiger des titres honnêtes et engageants, sans recourir au clickbait, or l'IA de Google produit précisément l'effet inverse : des formulations tronquées ou détournées qui dénaturent le sens de l'article. Au-delà de l'impact éditorial, la question de la responsabilité juridique se pose : si un titre réécrit par Google induit en erreur un lecteur ou nuit à la réputation d'un média, qui en est responsable ? Ce n'est pas la première fois que Google se retrouve sous le feu des critiques pour ses pratiques de réécriture algorithmique. The Verge avait déjà documenté, à deux reprises ces derniers mois, que l'IA intégrée à Discover, l'algorithme de recommandation de Google, générait des titres racoleurs et factuellement erronés, sans que les éditeurs concernés en soient informés. Cette nouvelle expérience s'inscrit dans une tendance plus large : Google cherche à contrôler toujours davantage la façon dont le contenu tiers est présenté dans son écosystème, au détriment de l'autonomie éditoriale des producteurs de contenu. Mallory De Leon a précisé que si un produit commercial devait naître de cette expérience, il n'utiliserait pas d'IA générative, sans expliquer par quel autre moyen Google remplacerait des titres. La tension entre Google et la presse est ainsi portée à un niveau supplémentaire, dans un contexte où les éditeurs dépendent encore massivement du moteur de recherche pour leur audience.

UELes éditeurs français et européens, déjà fragilisés économiquement, sont exposés à des réécritures de titres non autorisées qui dénaturent leur ligne éditoriale sans information ni consentement préalable.

ÉthiqueOpinion
1 source
L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA
4The Verge AI 

L'article sur l'IA n'a pas besoin d'illustrations générées par l'IA

Le New Yorker a publié un portrait de Sam Altman, PDG d'OpenAI, illustré par une image générée avec l'intelligence artificielle, signée de l'artiste David Szauder. L'illustration montre Altman entouré de visages flottants aux expressions diverses, certains à peine reconnaissables. La mention "Generated using A.I." figure en bas de page, dans une transparence qui n'est pas passée inaperçue dans le milieu de l'illustration professionnelle. Ce choix éditorial relance le débat sur l'utilisation de l'IA générative dans les médias de prestige. Pour les illustrateurs et artistes, voir une publication aussi établie que le New Yorker recourir à l'IA pour illustrer un article sur... le PDG d'OpenAI lui-même, représente une forme d'ironie doublée d'une menace concrète. Cela normalise le recours à ces outils dans des contextes où des artistes humains auraient traditionnellement été commissionnés, pesant directement sur leurs revenus et leur visibilité. David Szauder n'est pas un novice en la matière : il travaille depuis plus d'une décennie avec des processus d'art génératif et de collage vidéo, antérieurs aux outils commerciaux d'IA. Son profil brouille donc la frontière entre artiste établi et simple utilisateur d'IA. Ce cas illustre une tension croissante dans les rédactions : comment encadrer l'usage de l'IA dans la création visuelle, à qui en attribuer la paternité, et quand ce choix est-il justifié face à l'alternative humaine disponible ?

UELe recours à l'IA générative par des médias de prestige accentue la pression économique sur les illustrateurs européens et alimente le débat sur les droits d'auteur dans le cadre de l'AI Act.

💬 Illustrer un article sur Sam Altman avec de l'IA générative, c'est soit du second degré assumé, soit une erreur de jugement assez flagrante. Le vrai sujet, c'est que le New Yorker valide le geste, et quand une publication comme ça normalise le truc, les commandes perdues pour les illustrateurs ne sont plus une abstraction. Szauder a un vrai parcours d'artiste, d'accord, mais le signal envoyé, lui, est limpide.

ÉthiqueOpinion
1 source