Aller au contenu principal
YouTube ouvre son outil de détection des deepfakes à tous les créateurs adultes
SécuritéThe Decoder2h

YouTube ouvre son outil de détection des deepfakes à tous les créateurs adultes

Résumé IASource uniqueImpact UE
Source originale ↗·

YouTube a annoncé l'ouverture de son outil de détection de deepfakes, baptisé Likeness Detection, à l'ensemble des créateurs âgés de 18 ans et plus. Auparavant réservé aux membres du Programme Partenaire YouTube, ce système permet désormais à tous les créateurs adultes de détecter les manipulations de visage générées par intelligence artificielle dans les vidéos d'autres utilisateurs, et de soumettre des demandes de suppression directement depuis YouTube Studio.

L'enjeu est considérable : la prolifération des outils de face-swap IA rend de plus en plus facile la création de vidéos réalistes mettant en scène des personnes sans leur consentement. En élargissant l'accès à cet outil, YouTube offre une protection concrète aux créateurs de taille moyenne ou aux chaînes indépendantes, qui n'avaient jusqu'ici aucun mécanisme automatisé pour signaler ce type d'abus. Pour les victimes, c'est un levier direct pour agir sans passer par des procédures longues et opaques.

Cette décision s'inscrit dans un mouvement plus large de l'industrie tech face à la montée des contenus synthétiques. Les plateformes sont sous pression croissante des législateurs et des associations pour mieux encadrer l'usage de l'IA générative, notamment dans les cas d'usurpation d'identité et de pornographie non consentie. YouTube rejoint ainsi d'autres acteurs qui cherchent à se doter d'outils de modération proactifs, avant que des régulations plus contraignantes ne les y obligent.

Impact France/UE

Les créateurs français et européens sur YouTube peuvent désormais détecter et signaler les deepfakes les mettant en scène directement depuis YouTube Studio, renforçant leur protection concrète contre les usurpations d'identité générées par IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités
1Le Big Data 

Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités

YouTube a annoncé le 21 avril 2026 l'extension de son outil de détection de ressemblance par intelligence artificielle à l'ensemble de l'industrie du divertissement. L'annonce a été faite directement par Neal Mohan, PDG de YouTube, qui a confirmé des partenariats avec plusieurs grandes agences de talent hollywoodiennes, dont CAA, United Talent Agency, WME et Untitled Management. Le système analyse automatiquement les vidéos mises en ligne sur la plateforme afin d'identifier les contenus qui reproduisent artificiellement le visage d'une personnalité inscrite. Les célébrités éligibles peuvent s'inscrire via ces agences partenaires en fournissant simplement une pièce d'identité et une vidéo selfie. Une fois enregistrées, elles accèdent à un tableau de bord listant les contenus détectés et peuvent soumettre des demandes de suppression. Point notable : la protection s'applique même aux artistes ne possédant pas de chaîne YouTube. L'enjeu est considérable dans un contexte où les deepfakes sont devenus techniquement indiscernables de vidéos authentiques. Pour les personnalités publiques, ce type de contenu représente une menace directe : détournement d'image, atteinte à la réputation, propagation de fausses déclarations en quelques heures. Disposer d'un outil de surveillance automatisée et gratuit change concrètement la donne, en permettant une intervention rapide avant qu'une vidéo problématique ne devienne virale. YouTube ne supprime pas systématiquement tous les contenus signalés : la plateforme applique ses règles existantes de confidentialité et de copyright, maintenant des exceptions pour la satire et la parodie, ce qui évite une censure aveugle tout en limitant les usages malveillants. La technologie n'est pas nouvelle pour YouTube : la plateforme la testait depuis 2025 d'abord avec des créateurs de contenu, avant de l'étendre progressivement aux journalistes et responsables politiques. Le déploiement à Hollywood marque une montée en puissance significative, au moment où la prolifération des outils d'IA génératives rend la création de deepfakes accessible à n'importe qui. Cette initiative s'inscrit dans une pression croissante sur les grandes plateformes pour mieux réguler les contenus synthétiques, une problématique que le Congrès américain et plusieurs législateurs européens cherchent à encadrer légalement. Des voix critiques soulèvent déjà le risque de faux positifs, notamment pour des vidéos de fans ou des parodies légitimes, mais YouTube indique que les taux de suppression lors des phases de test sont restés faibles. La question de la scalabilité, lorsque des milliers d'artistes rejoindront le système, reste entière.

UEL'outil est pour l'instant limité aux agences de talent hollywoodiennes américaines, mais la pression réglementaire européenne sur les contenus synthétiques pourrait contraindre YouTube à étendre ce dispositif aux personnalités françaises et européennes.

SécuritéOpinion
1 source
Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram
2The Decoder 

Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram

Une analyse de 2,8 millions de messages Telegram en Italie et en Espagne révèle comment les outils d'intelligence artificielle alimentent un écosystème monétisé reposant sur la production et la diffusion massive d'images intimes non consenties. Des bots de "nudification" automatisée, des deepfakes et des archives organisées permettent à des réseaux de générer des contenus pornographiques à partir de photos anodines de femmes réelles, souvent sans qu'elles en sachent rien. Ces services sont commercialisés directement sur Telegram, avec des systèmes d'abonnement et de paiement intégrés. L'impact est considérable : des milliers de victimes voient leur image détournée et diffusée à grande échelle, avec des conséquences psychologiques, professionnelles et sociales graves. La monétisation de ces contenus crée une incitation économique durable qui rend la lutte contre ce phénomène particulièrement complexe. La facilité d'accès aux outils et l'anonymat relatif de Telegram transforment ce qui relevait autrefois d'actes isolés en une industrie structurée de l'abus sexuel en ligne. Ce phénomène s'inscrit dans une tendance plus large d'utilisation malveillante des technologies génératives, dont la démocratisation depuis 2022-2023 a drastiquement abaissé le niveau technique requis pour produire des deepfakes réalistes. Les législateurs italiens et espagnols, comme d'autres pays européens, sont sous pression pour criminaliser explicitement ces pratiques. L'Union européenne, à travers l'AI Act et la directive sur la violence à l'égard des femmes adoptée en 2024, tente d'apporter un cadre légal, mais l'application reste un défi majeur face à des plateformes opérant souvent hors juridiction.

UEL'Italie et l'Espagne sont au cœur de l'enquête, et l'UE est sous pression pour appliquer l'AI Act et la directive 2024 sur la violence faite aux femmes face à ces abus systématisés.

SécuritéOpinion
1 source
Des deepfakes de Taylor Swift diffusent des arnaques sur TikTok
3The Verge AI 

Des deepfakes de Taylor Swift diffusent des arnaques sur TikTok

Des vidéos générées par intelligence artificielle représentant des célébrités comme Taylor Swift et Rihanna circulent sur TikTok pour promouvoir des services frauduleux, selon un rapport de la société d'authentification Copyleaks. Ces publicités mettent en scène les stars dans des contextes simulés - tapis rouges, podcasts, émissions de télévision - en manipulant des images réelles à l'aide de l'IA. Les arnaques vantent des programmes de récompenses promettant aux utilisateurs de gagner de l'argent en regardant des vidéos TikTok et en laissant des commentaires. Certaines reprennent même la charte graphique officielle de TikTok avant de rediriger les utilisateurs vers des plateformes tierces qui collectent leurs informations personnelles. Ces escroqueries exposent les internautes à deux risques majeurs : la perte financière et le vol de données personnelles. En exploitant la notoriété de stars mondiales pour crédibiliser leurs messages, les fraudeurs contournent la méfiance naturelle des utilisateurs. L'enjeu dépasse la simple arnaque individuelle : la prolifération de ces deepfakes érode la confiance dans les contenus vidéo en ligne et fragilise la crédibilité des plateformes comme TikTok, qui peinent à détecter automatiquement ces contenus manipulés avant qu'ils n'atteignent des millions de vues. Ce phénomène illustre une tendance croissante d'utilisation abusive des outils de génération vidéo par IA. La facilité avec laquelle des avatars réalistes de célébrités peuvent désormais être créés pose une question urgente de régulation : ni les plateformes, ni le cadre légal actuel ne disposent de réponses suffisantes pour protéger l'image des personnes et les consommateurs contre ces dérives. TikTok, qui compte plus d'un milliard d'utilisateurs dans le monde, se retrouve en première ligne d'une bataille technologique et juridique qui ne fait que commencer.

UELa prolifération de deepfakes frauduleux sur TikTok concerne directement l'UE, où le DSA et l'AI Act imposent aux plateformes des obligations de détection et de retrait des contenus synthétiques illicites.

SécuritéOpinion
1 source
Deepfakes utilisés comme armes
4MIT Technology Review 

Deepfakes utilisés comme armes

Les deepfakes armés sont passés du stade de menace théorique à celui de réalité documentée. Des images sexuellement explicites aux vidéos de propagande politique, ces contenus générés par intelligence artificielle, vidéos, images ou enregistrements audio falsifiés, prolifèrent à une vitesse inédite. Une étude de 2023 révèle que 98 % des deepfakes en circulation sont pornographiques, et 99 % mettent en scène des femmes. Depuis le lancement de la fonction "édition d'image" de Grok par Elon Musk fin 2024, des millions d'images sexualisées ont été produites via ce chatbot, dont un grand nombre impliquant des enfants et des femmes, selon un rapport, 81 % des images générées par Grok représentaient des femmes. La réponse initiale de xAI s'est limitée à restreindre la fonctionnalité aux abonnés payants, avant de bloquer les contenus à caractère nu dans les juridictions où cela est illégal. Sur le plan politique, le procureur général du Texas Ken Paxton a diffusé en janvier 2026 une vidéo truquée montrant son adversaire républicain, le sénateur John Cornyn, dansant avec la représentante démocrate Jasmine Crockett, une scène qui n'a jamais eu lieu, sans que la publicité ne le mentionne clairement. L'impact de ces faux contenus dépasse largement le simple scandale médiatique. Ils ont déjà été utilisés pour inciter à la violence, tenter d'influencer des scrutins et saper la confiance dans les institutions. Les effets sont particulièrement dévastateurs pour les femmes et les groupes marginalisés, qui constituent les cibles disproportionnées de ces attaques. Les experts alertent sur un effet de fond plus insidieux : l'érosion progressive de l'esprit critique et de la confiance mutuelle au sein des sociétés démocratiques. Lorsque l'administration Trump partage des images générées par IA, comme ce portrait d'une avocate de Minneapolis dont la peau a été artificiellement assombrie et l'expression transformée en grimace de pleurs, diffusé par la Maison-Blanche fin janvier, la frontière entre communication politique et manipulation devient dangereusement floue. Les solutions envisagées peinent à répondre à l'ampleur du défi. Les garde-fous techniques peuvent être contournés, notamment via des modèles open source dépourvus de restrictions. Encourager les individus à mieux protéger leurs données personnelles ou à appliquer des filigranes à leurs photos relève de l'utopie comportementale. La voie législative progresse, Trump a signé une loi criminalisant les deepfakes pornographiques, mais son administration continue de diffuser d'autres formes de contenus manipulés, rendant l'application de la loi incohérente. La situation risque de s'aggraver rapidement : les élections de mi-mandat américaines de 2026 approchent dans un contexte où les agences fédérales chargées de l'intégrité électorale ont été affaiblies, tout comme les organisations indépendantes de fact-checking et de lutte contre la désinformation.

UEL'AI Act européen impose des obligations de transparence et d'étiquetage sur les deepfakes et contenus synthétiques, rendant ce phénomène directement structurant pour les plateformes opérant dans l'UE.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour