Aller au contenu principal
Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube
ÉthiqueThe Verge1h

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

1 source couvre ce sujet·Source originale ↗·

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique.

Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels.

YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

Impact France/UE

La pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

À lire aussi

☕️ OkCupid épinglé pour un transfert de photos d’utilisateurs vers une société d’IA
1Next INpact 

☕️ OkCupid épinglé pour un transfert de photos d’utilisateurs vers une société d’IA

En mars 2026, OkCupid et sa maison mère Match Group ont conclu un accord avec la Federal Trade Commission (FTC) américaine après la révélation que le site de rencontres avait transmis illégalement les données de ses utilisateurs à une société d'intelligence artificielle. Au cœur de l'affaire : 3 millions de photos d'utilisateurs, accompagnées de données démographiques et de géolocalisation, livrées à Clarifai, une entreprise spécialisée dans la reconnaissance faciale. Les faits remontent à 2014, lorsque Matthew Zeiler, fondateur de Clarifai, contactait Maxwell Khron, cofondateur d'OkCupid, pour obtenir un accès massif aux données du site, dont des dirigeants d'OkCupid étaient par ailleurs actionnaires. Ce transfert s'est effectué sans aucune restriction sur l'usage ultérieur des informations, sans notification aux utilisateurs et sans possibilité pour eux de s'y opposer. L'accord avec la FTC, finalisé fin mars 2026, oblige OkCupid et Match à ne plus induire en erreur leurs membres sur l'utilisation de leurs données personnelles, mais n'implique aucune sanction financière, la FTC ne disposant pas de ce pouvoir. Le scandale illustre une pratique qui touche directement des millions de personnes ayant confié leurs photos et informations intimes à une plateforme de rencontres, sans jamais imaginer que ces données alimenteraient des modèles de reconnaissance faciale commerciaux et militaires. Clarifai compte en effet parmi ses clients l'armée américaine, ce qui soulève des questions sérieuses sur l'usage final de ces données biométriques. L'absence totale de consentement, combinée à la violation explicite de la propre politique de confidentialité d'OkCupid, place cet accord dans la catégorie des manquements les plus graves aux droits des utilisateurs : non seulement les règles internes ont été bafouées, mais une loi fédérale interdisant les pratiques commerciales trompeuses l'a également été. L'enquête de la FTC, ouverte en 2019, aura mis cinq ans à aboutir à un règlement qui, pour beaucoup d'observateurs, reste insuffisant face à l'ampleur des faits. Clarifai, qui n'était pas formellement mise en cause dans la procédure, a affirmé avoir supprimé les données reçues d'OkCupid, mais seulement douze ans après les faits, et sans préciser combien de modèles avaient été entraînés sur ces données ni pendant combien de temps ils avaient été utilisés ou commercialisés. L'affaire s'inscrit dans un contexte plus large de monétisation opaque des données issues des applications de rencontres : des enquêtes parallèles ont révélé que des données similaires ont été revendues pour identifier des membres du clergé catholique. Match Group, qui opère également Tinder, Hinge et plusieurs autres plateformes, se retrouve ainsi au centre d'un débat croissant sur la gouvernance des données personnelles sensibles dans le secteur des applications de rencontres.

UELes utilisateurs français et européens de Tinder, Hinge et OkCupid (Match Group) sont concernés par des pratiques de partage de données biométriques similaires potentiellement contraires au RGPD, soulevant des questions sur la gouvernance des données sensibles par les plateformes de rencontres opérant en Europe.

ÉthiqueReglementation
1 source
Streaming : l’IA fait exploser l’offre et dilue d’autant les revenus des artistes
2FrenchWeb 

Streaming : l’IA fait exploser l’offre et dilue d’autant les revenus des artistes

Sur Deezer, 75 000 titres générés par intelligence artificielle sont désormais téléversés chaque jour, représentant près de 44 % de l'ensemble des nouveaux contenus mis en ligne sur la plateforme. Ce chiffre a été multiplié par sept en à peine plus d'un an, témoignant d'une accélération massive de la production musicale automatisée. Paradoxalement, ces titres ne concentrent qu'entre 1 % et 3 % des écoutes effectives, révélant un fossé considérable entre volume produit et audience réelle. Ce déséquilibre a des conséquences directes sur les revenus des artistes humains. Les modèles de rémunération des plateformes de streaming sont fondés sur une répartition proportionnelle des écoutes : chaque flux génère une fraction du revenu total, redistribuée selon la part d'audience de chaque titre. En inondant le catalogue de contenus peu écoutés, la musique IA dilue mécaniquement ce pool de revenus, sans pour autant capter une audience significative. Les artistes indépendants, dont les marges sont déjà ténues, sont les premiers touchés par cet effet de dilution. Ce phénomène s'inscrit dans une tension plus large entre plateformes, ayants droit et créateurs à l'ère de la génération automatisée. Des services comme Deezer, Spotify ou YouTube Music peinent à établir des règles claires sur l'indexation des contenus synthétiques, faute de cadre réglementaire adapté. Les sociétés de gestion collective et les syndicats d'artistes réclament des mécanismes de filtrage ou de séparation des pools de revenus, une bataille qui s'annonce centrale dans les négociations à venir avec les majors et les législateurs européens.

UEDeezer étant une plateforme française et les sociétés de gestion collective européennes réclamant des mécanismes de séparation des pools de revenus, la France et l'UE sont en première ligne de la bataille réglementaire sur la rémunération des artistes face au contenu musical généré par IA.

💬 44 % des nouveaux titres sur Deezer viennent de l'IA, pour 1 à 3 % des écoutes. Le problème, c'est pas l'audience, c'est la mécanique de rémunération : le pool se dilue quand même, les artistes humains paient la note sans que personne n'écoute vraiment ces tracks. Deezer est française, les sociétés de gestion collective sont sur le coup, et la bataille des pools séparés va être le vrai sujet des 18 prochains mois côté UE.

ÉthiqueReglementation
1 source
Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms
3The Decoder 

Des influenceurs générés par IA inondent les réseaux sociaux de contenus pro-Trump avant les midterms

Des centaines d'avatars générés par intelligence artificielle inondent TikTok, Instagram et YouTube avec des messages de soutien à Donald Trump à l'approche des élections de mi-mandat américaines. Certains de ces comptes ont déjà accumulé plus de 35 000 abonnés et engrangé des millions de vues. Trump lui-même a partagé du contenu produit par IA, ce qui a contribué à amplifier leur portée. L'origine de cette vague reste floue : s'agit-il d'initiatives d'activistes individuels ou d'une campagne coordonnée, personne ne le sait encore avec certitude. Ce phénomène soulève des questions majeures sur l'intégrité de l'information politique en ligne. Des influenceurs virtuels, indiscernables de vraies personnes, peuvent diffuser des messages partisans à grande échelle, sans les contraintes légales ou éthiques qui s'appliquent aux acteurs humains. Pour les plateformes comme TikTok et Meta, la détection et la modération de ce type de contenu représentent un défi technique et politique considérable, d'autant que les algorithmes de recommandation amplifient naturellement les contenus engageants, quelle que soit leur origine. L'utilisation de l'IA à des fins de propagande politique n'est pas nouvelle, mais la facilité avec laquelle ces avatars peuvent être créés et déployés massivement marque un tournant. Après les controverses autour des ingérences étrangères lors des élections de 2016 et 2020, les autorités américaines et les plateformes ont renforcé leurs politiques, sans pour autant anticiper ce scénario. La question de la transparence sur l'origine artificielle du contenu politique devient désormais centrale pour les régulateurs et les législateurs aux États-Unis comme en Europe.

UELa prolifération d'avatars politiques générés par IA interpelle directement les régulateurs européens, le Digital Services Act et l'AI Act imposant des obligations de transparence et de marquage des contenus synthétiques que les plateformes peinent encore à appliquer.

💬 On savait que ça allait arriver, mais la vitesse, là, ça surprend quand même. Des centaines de comptes coordonnés, des millions de vues en quelques semaines, c'est plus de l'expérimentation isolée, c'est une chaîne de production. Le DSA impose le marquage des contenus synthétiques, sur le papier c'est exactement pour ça qu'il existe, mais modérer à cette échelle sur TikTok sans faux positifs massifs, personne ne l'a encore réussi.

ÉthiqueOpinion
1 source
L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée
4Next INpact 

L’IA de Google réécrit des titres d’articles et pages web de façon putaclic et erronée

Google expérimente actuellement aux États-Unis une fonctionnalité qui réécrit automatiquement, via intelligence artificielle générative, les titres des articles et pages web apparaissant dans ses résultats de recherche. C'est The Verge qui a révélé l'existence de ce test après avoir constaté que plusieurs de ses propres articles affichaient dans Google des titres que sa rédaction n'avait jamais rédigés. Un article intitulé « J'ai utilisé l'outil IA "tricher sur tout" et cela ne m'a aidé à tricher sur rien » s'est ainsi retrouvé réduit à cinq mots, « Outil IA "tricher sur tout" », laissant faussement entendre que The Verge en ferait la promotion. Interrogés, trois porte-parole de Google, Jennifer Kutz, Mallory De Leon et Ned Adriance, ont confirmé l'existence du test, le qualifiant d'expérience « modeste » et « limitée », non encore autorisée à un déploiement à plus grande échelle. Selon leurs explications, l'objectif est d'identifier sur une page le contenu susceptible de constituer un titre plus pertinent par rapport à la requête d'un utilisateur donné. Le problème central est que cette réécriture algorithmique se fait sans aucune indication visible pour l'internaute, et produit parfois des titres qui trahissent le sens original, voire le contredisent. Pour les éditeurs et médias, l'enjeu est considérable : leurs titres, soigneusement formulés pour refléter leur ligne éditoriale, peuvent être remplacés par une version déformée sans leur consentement ni même leur information. The Verge dénonce une atteinte directe à sa capacité à promouvoir son propre travail de manière honnête, soulignant que sa rédaction investit précisément du temps pour éviter le clickbait, une démarche que Google semble court-circuiter en imposant ses propres formulations. Mallory De Leon a certes précisé qu'un éventuel produit final n'utiliserait pas d'IA générative, sans expliquer comment Google envisagerait alors de réécrire des titres autrement. Cette révélation survient dans un contexte déjà tendu entre Google et les médias sur la question des contenus générés ou altérés par IA. The Verge avait documenté à deux reprises ces derniers mois des cas où l'algorithme de recommandation Discover de Google « hallucinait » des titres racoleurs et erronés pour ses articles. La pratique de réécriture des titres n'est pas entièrement nouvelle, Google ajuste les titres affichés dans ses résultats depuis des années via des règles heuristiques, mais le recours à l'IA générative représente un saut qualitatif dans la capacité de déformation du message original. Si ce test devait être généralisé, il soulèverait des questions fondamentales sur le contrôle éditorial à l'ère des moteurs de recherche pilotés par IA, et potentiellement des recours juridiques de la part d'éditeurs dont la réputation pourrait être affectée par des titres qu'ils n'ont pas écrits.

UELes éditeurs et médias français pourraient invoquer la directive européenne sur les droits voisins pour contester cette réécriture non consentie de leurs titres dans les résultats de recherche Google.

ÉthiqueOutil
1 source