Aller au contenu principal
Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités
SécuritéLe Big Data1h

Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités

1 source couvre ce sujet·Source originale ↗·

YouTube a annoncé le 21 avril 2026 l'extension de son outil de détection de ressemblance par intelligence artificielle à l'ensemble de l'industrie du divertissement. L'annonce a été faite directement par Neal Mohan, PDG de YouTube, qui a confirmé des partenariats avec plusieurs grandes agences de talent hollywoodiennes, dont CAA, United Talent Agency, WME et Untitled Management. Le système analyse automatiquement les vidéos mises en ligne sur la plateforme afin d'identifier les contenus qui reproduisent artificiellement le visage d'une personnalité inscrite. Les célébrités éligibles peuvent s'inscrire via ces agences partenaires en fournissant simplement une pièce d'identité et une vidéo selfie. Une fois enregistrées, elles accèdent à un tableau de bord listant les contenus détectés et peuvent soumettre des demandes de suppression. Point notable : la protection s'applique même aux artistes ne possédant pas de chaîne YouTube.

L'enjeu est considérable dans un contexte où les deepfakes sont devenus techniquement indiscernables de vidéos authentiques. Pour les personnalités publiques, ce type de contenu représente une menace directe : détournement d'image, atteinte à la réputation, propagation de fausses déclarations en quelques heures. Disposer d'un outil de surveillance automatisée et gratuit change concrètement la donne, en permettant une intervention rapide avant qu'une vidéo problématique ne devienne virale. YouTube ne supprime pas systématiquement tous les contenus signalés : la plateforme applique ses règles existantes de confidentialité et de copyright, maintenant des exceptions pour la satire et la parodie, ce qui évite une censure aveugle tout en limitant les usages malveillants.

La technologie n'est pas nouvelle pour YouTube : la plateforme la testait depuis 2025 d'abord avec des créateurs de contenu, avant de l'étendre progressivement aux journalistes et responsables politiques. Le déploiement à Hollywood marque une montée en puissance significative, au moment où la prolifération des outils d'IA génératives rend la création de deepfakes accessible à n'importe qui. Cette initiative s'inscrit dans une pression croissante sur les grandes plateformes pour mieux réguler les contenus synthétiques, une problématique que le Congrès américain et plusieurs législateurs européens cherchent à encadrer légalement. Des voix critiques soulèvent déjà le risque de faux positifs, notamment pour des vidéos de fans ou des parodies légitimes, mais YouTube indique que les taux de suppression lors des phases de test sont restés faibles. La question de la scalabilité, lorsque des milliers d'artistes rejoindront le système, reste entière.

Impact France/UE

L'outil est pour l'instant limité aux agences de talent hollywoodiennes américaines, mais la pression réglementaire européenne sur les contenus synthétiques pourrait contraindre YouTube à étendre ce dispositif aux personnalités françaises et européennes.

À lire aussi

Mozilla : l'outil Mythos d'Anthropic a découvert 271 failles zero-day dans Firefox 150
1Ars Technica AI 

Mozilla : l'outil Mythos d'Anthropic a découvert 271 failles zero-day dans Firefox 150

Mozilla a annoncé mardi que le modèle Mythos Preview d'Anthropic avait détecté 271 vulnérabilités zero-day dans le code source de Firefox 150 avant même sa sortie officielle cette semaine. Ces failles ont été identifiées par simple analyse statique du code non publié, sans exécution du logiciel. À titre de comparaison, le modèle précédent d'Anthropic, Claude Opus 4.6, n'avait repéré que 22 bugs liés à la sécurité lors de l'analyse de Firefox 148 le mois dernier. Le CTO de Firefox, Bobby Holley, s'est montré enthousiaste dans un billet de blog, affirmant que ce résultat marque un tournant dans la bataille permanente entre attaquants et défenseurs : "les défenseurs ont enfin une chance de gagner, de façon décisive." L'écart entre 22 et 271 vulnérabilités détectées en l'espace d'un mois illustre une accélération brutale des capacités des modèles spécialisés en cybersécurité. Pour les éditeurs de logiciels, cela signifie qu'un outil d'IA peut désormais parcourir des millions de lignes de code et signaler des failles exploitables avant qu'elles n'atteignent les utilisateurs, réduisant considérablement la fenêtre d'exposition. Holley n'a pas précisé la gravité des 271 vulnérabilités identifiées, mais leur volume seul suggère que Mythos opère à une échelle inaccessible aux équipes de sécurité humaines dans des délais comparables. Anthropic avait lancé Mythos Preview début avril en le réservant à "un groupe limité de partenaires industriels critiques", suscitant un débat sur la nature réelle du modèle : percée technique ou communication marketing soignée. Les résultats obtenus par Mozilla apportent une réponse concrète, mais soulèvent aussi des questions symétriques : si Mythos peut trouver 271 failles dans Firefox en quelques heures, des acteurs malveillants disposant d'un accès similaire pourraient faire de même. La course entre red teams et blue teams risque donc de s'accélérer, avec des modèles d'IA comme arbitres d'un nouvel équilibre encore incertain.

UEFirefox étant le navigateur le plus utilisé en Europe après Chrome, la capacité de Mythos à détecter massivement des failles zero-day avant déploiement réduit directement l'exposition des millions d'utilisateurs européens, tout en soulevant le risque symétrique qu'un accès similaire par des acteurs malveillants accélère les attaques ciblant le marché européen.

SécuritéOpinion
1 source
Anthropic Mythos : une IA trop puissante pour le grand public ?
2Le Big Data 

Anthropic Mythos : une IA trop puissante pour le grand public ?

Avant d'écrire le résumé, je dois signaler un problème sérieux avec cet article source. Cet article contient des affirmations non vérifiées et potentiellement fabriquées. "Anthropic Mythos" n'est pas un produit annoncé par Anthropic. L'article ne cite aucune source nommée, aucune date précise, aucun document officiel. Les affirmations ("s'est échappé de son environnement de test", "génère des exploits zero-day en secondes", "risque systémique pour les banques mondiales") sont présentées avec des formulations vagues ("on murmure que", "il semble que", "des rapports récents pointent"), le signal classique d'un article clickbait ou de désinformation. Publier un résumé de ce texte sur Le Fil IA risque de : - Amplifier de fausses informations sur Anthropic - Nuire à la crédibilité du site auprès de lecteurs tech avertis - Potentiellement violer des standards journalistiques minimaux Ma recommandation : ne pas publier cet article. Si le sujet "IA et cybersécurité offensive" t'intéresse, je peux t'aider à trouver des sources fiables sur les vrais modèles d'Anthropic (Claude 3.7, Claude 4) et leurs politiques de sécurité réelles, ou sur les recherches académiques publiées sur LLMs et pentesting. Veux-tu que je cherche des articles de qualité sur ce sujet à la place, ou tu souhaites quand même le résumé en précisant que c'est du contenu spéculatif ?

SécuritéOpinion
1 source
Arnaques dopées à l'IA
3MIT Technology Review 

Arnaques dopées à l'IA

Depuis le lancement de ChatGPT fin 2022, les cybercriminels ont massivement adopté l'intelligence artificielle pour amplifier leurs attaques. Aujourd'hui, ils utilisent les grands modèles de langage pour rédiger des courriels de phishing convaincants, générer des deepfakes hyperréalistes, modifier des logiciels malveillants afin de les rendre plus difficiles à détecter, automatiser la recherche de failles dans les réseaux, et analyser des volumes massifs de données volées pour en extraire les informations les plus précieuses. Interpol a récemment alerté sur l'essor des centres d'escroquerie en Asie du Sud-Est, qui recourent à des outils d'IA bon marché pour cibler davantage de victimes potentielles et changer rapidement de localisation. Les Émirats arabes unis ont de leur côté déclaré avoir déjoué une série d'attaques soutenues par l'IA visant leurs secteurs stratégiques. Fait particulièrement préoccupant : Anthropic a annoncé ce mois-ci que Mythos, un modèle qu'elle développe et teste actuellement, avait identifié des milliers de vulnérabilités critiques dans l'ensemble des principaux systèmes d'exploitation et navigateurs web. Anthropic affirme que toutes ont été corrigées, mais retarde la mise sur le marché du modèle en raison de ses capacités jugées trop dangereuses, et a constitué un consortium baptisé Project Glasswing pour tenter de les orienter vers des usages défensifs. L'impact le plus immédiat se mesure à l'échelle et à la vitesse des attaques. L'IA abaisse considérablement le seuil d'entrée pour des attaquants peu qualifiés, en leur fournissant des outils toujours plus performants, moins coûteux et plus rapides à déployer. Les attaques de masse, même peu sophistiquées, peuvent produire des effets dévastateurs dès lors qu'elles sont diffusées à une échelle suffisante : il suffit qu'une cible soit vulnérable ou qu'un destinataire soit pris au dépourvu au mauvais moment. De nombreuses organisations peinent déjà à absorber le volume actuel des cybermenaces, et la situation devrait s'aggraver à mesure que les outils d'IA générative accessibles au grand public continuent de progresser. Ce bras de fer technologique ne se joue toutefois pas à sens unique. L'IA est également mobilisée pour la défense. Microsoft traite chaque jour plus de 100 000 milliards de signaux signalés comme potentiellement malveillants par ses systèmes d'IA, et affirme avoir bloqué entre avril 2024 et avril 2025 l'équivalent de 4 milliards de dollars de fraudes et d'arnaques, dont une part probablement facilitée par des contenus générés par IA. Les chercheurs en cybersécurité estiment que les attaques les moins élaborées peuvent encore être neutralisées par des mesures de base, notamment la mise à jour régulière des logiciels et le respect des protocoles de sécurité réseau. Face à des attaques plus ciblées et plus sophistiquées, la réponse reste bien moins certaine, et la même technologie qui les rend possibles pourrait s'avérer notre meilleure ligne de défense dans les années à venir.

UELes organisations européennes sont directement exposées à cette montée en puissance des cyberattaques dopées à l'IA, notamment le phishing et les deepfakes, sans que les réglementations actuelles (AI Act, NIS2) ne suffisent encore à encadrer les usages offensifs des LLMs.

SécuritéOpinion
1 source
Deepfakes utilisés comme armes
4MIT Technology Review 

Deepfakes utilisés comme armes

Les deepfakes armés sont passés du stade de menace théorique à celui de réalité documentée. Des images sexuellement explicites aux vidéos de propagande politique, ces contenus générés par intelligence artificielle, vidéos, images ou enregistrements audio falsifiés, prolifèrent à une vitesse inédite. Une étude de 2023 révèle que 98 % des deepfakes en circulation sont pornographiques, et 99 % mettent en scène des femmes. Depuis le lancement de la fonction "édition d'image" de Grok par Elon Musk fin 2024, des millions d'images sexualisées ont été produites via ce chatbot, dont un grand nombre impliquant des enfants et des femmes, selon un rapport, 81 % des images générées par Grok représentaient des femmes. La réponse initiale de xAI s'est limitée à restreindre la fonctionnalité aux abonnés payants, avant de bloquer les contenus à caractère nu dans les juridictions où cela est illégal. Sur le plan politique, le procureur général du Texas Ken Paxton a diffusé en janvier 2026 une vidéo truquée montrant son adversaire républicain, le sénateur John Cornyn, dansant avec la représentante démocrate Jasmine Crockett, une scène qui n'a jamais eu lieu, sans que la publicité ne le mentionne clairement. L'impact de ces faux contenus dépasse largement le simple scandale médiatique. Ils ont déjà été utilisés pour inciter à la violence, tenter d'influencer des scrutins et saper la confiance dans les institutions. Les effets sont particulièrement dévastateurs pour les femmes et les groupes marginalisés, qui constituent les cibles disproportionnées de ces attaques. Les experts alertent sur un effet de fond plus insidieux : l'érosion progressive de l'esprit critique et de la confiance mutuelle au sein des sociétés démocratiques. Lorsque l'administration Trump partage des images générées par IA, comme ce portrait d'une avocate de Minneapolis dont la peau a été artificiellement assombrie et l'expression transformée en grimace de pleurs, diffusé par la Maison-Blanche fin janvier, la frontière entre communication politique et manipulation devient dangereusement floue. Les solutions envisagées peinent à répondre à l'ampleur du défi. Les garde-fous techniques peuvent être contournés, notamment via des modèles open source dépourvus de restrictions. Encourager les individus à mieux protéger leurs données personnelles ou à appliquer des filigranes à leurs photos relève de l'utopie comportementale. La voie législative progresse, Trump a signé une loi criminalisant les deepfakes pornographiques, mais son administration continue de diffuser d'autres formes de contenus manipulés, rendant l'application de la loi incohérente. La situation risque de s'aggraver rapidement : les élections de mi-mandat américaines de 2026 approchent dans un contexte où les agences fédérales chargées de l'intégrité électorale ont été affaiblies, tout comme les organisations indépendantes de fact-checking et de lutte contre la désinformation.

UEL'AI Act européen impose des obligations de transparence et d'étiquetage sur les deepfakes et contenus synthétiques, rendant ce phénomène directement structurant pour les plateformes opérant dans l'UE.

SécuritéOpinion
1 source