Aller au contenu principal
Des deepfakes de Taylor Swift diffusent des arnaques sur TikTok
SécuritéThe Verge AI1h

Des deepfakes de Taylor Swift diffusent des arnaques sur TikTok

Résumé IASource uniqueImpact UE
Source originale ↗·

Des vidéos générées par intelligence artificielle représentant des célébrités comme Taylor Swift et Rihanna circulent sur TikTok pour promouvoir des services frauduleux, selon un rapport de la société d'authentification Copyleaks. Ces publicités mettent en scène les stars dans des contextes simulés - tapis rouges, podcasts, émissions de télévision - en manipulant des images réelles à l'aide de l'IA. Les arnaques vantent des programmes de récompenses promettant aux utilisateurs de gagner de l'argent en regardant des vidéos TikTok et en laissant des commentaires. Certaines reprennent même la charte graphique officielle de TikTok avant de rediriger les utilisateurs vers des plateformes tierces qui collectent leurs informations personnelles.

Ces escroqueries exposent les internautes à deux risques majeurs : la perte financière et le vol de données personnelles. En exploitant la notoriété de stars mondiales pour crédibiliser leurs messages, les fraudeurs contournent la méfiance naturelle des utilisateurs. L'enjeu dépasse la simple arnaque individuelle : la prolifération de ces deepfakes érode la confiance dans les contenus vidéo en ligne et fragilise la crédibilité des plateformes comme TikTok, qui peinent à détecter automatiquement ces contenus manipulés avant qu'ils n'atteignent des millions de vues.

Ce phénomène illustre une tendance croissante d'utilisation abusive des outils de génération vidéo par IA. La facilité avec laquelle des avatars réalistes de célébrités peuvent désormais être créés pose une question urgente de régulation : ni les plateformes, ni le cadre légal actuel ne disposent de réponses suffisantes pour protéger l'image des personnes et les consommateurs contre ces dérives. TikTok, qui compte plus d'un milliard d'utilisateurs dans le monde, se retrouve en première ligne d'une bataille technologique et juridique qui ne fait que commencer.

Impact France/UE

La prolifération de deepfakes frauduleux sur TikTok concerne directement l'UE, où le DSA et l'AI Act imposent aux plateformes des obligations de détection et de retrait des contenus synthétiques illicites.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Deepfakes utilisés comme armes
1MIT Technology Review 

Deepfakes utilisés comme armes

Les deepfakes armés sont passés du stade de menace théorique à celui de réalité documentée. Des images sexuellement explicites aux vidéos de propagande politique, ces contenus générés par intelligence artificielle, vidéos, images ou enregistrements audio falsifiés, prolifèrent à une vitesse inédite. Une étude de 2023 révèle que 98 % des deepfakes en circulation sont pornographiques, et 99 % mettent en scène des femmes. Depuis le lancement de la fonction "édition d'image" de Grok par Elon Musk fin 2024, des millions d'images sexualisées ont été produites via ce chatbot, dont un grand nombre impliquant des enfants et des femmes, selon un rapport, 81 % des images générées par Grok représentaient des femmes. La réponse initiale de xAI s'est limitée à restreindre la fonctionnalité aux abonnés payants, avant de bloquer les contenus à caractère nu dans les juridictions où cela est illégal. Sur le plan politique, le procureur général du Texas Ken Paxton a diffusé en janvier 2026 une vidéo truquée montrant son adversaire républicain, le sénateur John Cornyn, dansant avec la représentante démocrate Jasmine Crockett, une scène qui n'a jamais eu lieu, sans que la publicité ne le mentionne clairement. L'impact de ces faux contenus dépasse largement le simple scandale médiatique. Ils ont déjà été utilisés pour inciter à la violence, tenter d'influencer des scrutins et saper la confiance dans les institutions. Les effets sont particulièrement dévastateurs pour les femmes et les groupes marginalisés, qui constituent les cibles disproportionnées de ces attaques. Les experts alertent sur un effet de fond plus insidieux : l'érosion progressive de l'esprit critique et de la confiance mutuelle au sein des sociétés démocratiques. Lorsque l'administration Trump partage des images générées par IA, comme ce portrait d'une avocate de Minneapolis dont la peau a été artificiellement assombrie et l'expression transformée en grimace de pleurs, diffusé par la Maison-Blanche fin janvier, la frontière entre communication politique et manipulation devient dangereusement floue. Les solutions envisagées peinent à répondre à l'ampleur du défi. Les garde-fous techniques peuvent être contournés, notamment via des modèles open source dépourvus de restrictions. Encourager les individus à mieux protéger leurs données personnelles ou à appliquer des filigranes à leurs photos relève de l'utopie comportementale. La voie législative progresse, Trump a signé une loi criminalisant les deepfakes pornographiques, mais son administration continue de diffuser d'autres formes de contenus manipulés, rendant l'application de la loi incohérente. La situation risque de s'aggraver rapidement : les élections de mi-mandat américaines de 2026 approchent dans un contexte où les agences fédérales chargées de l'intégrité électorale ont été affaiblies, tout comme les organisations indépendantes de fact-checking et de lutte contre la désinformation.

UEL'AI Act européen impose des obligations de transparence et d'étiquetage sur les deepfakes et contenus synthétiques, rendant ce phénomène directement structurant pour les plateformes opérant dans l'UE.

SécuritéOpinion
1 source
Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram
2The Decoder 

Des bots de dénudification, des deepfakes et des archives automatisées : comment l'IA alimente un écosystème d'abus monétisé sur Telegram

Une analyse de 2,8 millions de messages Telegram en Italie et en Espagne révèle comment les outils d'intelligence artificielle alimentent un écosystème monétisé reposant sur la production et la diffusion massive d'images intimes non consenties. Des bots de "nudification" automatisée, des deepfakes et des archives organisées permettent à des réseaux de générer des contenus pornographiques à partir de photos anodines de femmes réelles, souvent sans qu'elles en sachent rien. Ces services sont commercialisés directement sur Telegram, avec des systèmes d'abonnement et de paiement intégrés. L'impact est considérable : des milliers de victimes voient leur image détournée et diffusée à grande échelle, avec des conséquences psychologiques, professionnelles et sociales graves. La monétisation de ces contenus crée une incitation économique durable qui rend la lutte contre ce phénomène particulièrement complexe. La facilité d'accès aux outils et l'anonymat relatif de Telegram transforment ce qui relevait autrefois d'actes isolés en une industrie structurée de l'abus sexuel en ligne. Ce phénomène s'inscrit dans une tendance plus large d'utilisation malveillante des technologies génératives, dont la démocratisation depuis 2022-2023 a drastiquement abaissé le niveau technique requis pour produire des deepfakes réalistes. Les législateurs italiens et espagnols, comme d'autres pays européens, sont sous pression pour criminaliser explicitement ces pratiques. L'Union européenne, à travers l'AI Act et la directive sur la violence à l'égard des femmes adoptée en 2024, tente d'apporter un cadre légal, mais l'application reste un défi majeur face à des plateformes opérant souvent hors juridiction.

UEL'Italie et l'Espagne sont au cœur de l'enquête, et l'UE est sous pression pour appliquer l'AI Act et la directive 2024 sur la violence faite aux femmes face à ces abus systématisés.

SécuritéOpinion
1 source
Arnaques dopées à l'IA
3MIT Technology Review 

Arnaques dopées à l'IA

Depuis le lancement de ChatGPT fin 2022, les cybercriminels ont massivement adopté l'intelligence artificielle pour amplifier leurs attaques. Aujourd'hui, ils utilisent les grands modèles de langage pour rédiger des courriels de phishing convaincants, générer des deepfakes hyperréalistes, modifier des logiciels malveillants afin de les rendre plus difficiles à détecter, automatiser la recherche de failles dans les réseaux, et analyser des volumes massifs de données volées pour en extraire les informations les plus précieuses. Interpol a récemment alerté sur l'essor des centres d'escroquerie en Asie du Sud-Est, qui recourent à des outils d'IA bon marché pour cibler davantage de victimes potentielles et changer rapidement de localisation. Les Émirats arabes unis ont de leur côté déclaré avoir déjoué une série d'attaques soutenues par l'IA visant leurs secteurs stratégiques. Fait particulièrement préoccupant : Anthropic a annoncé ce mois-ci que Mythos, un modèle qu'elle développe et teste actuellement, avait identifié des milliers de vulnérabilités critiques dans l'ensemble des principaux systèmes d'exploitation et navigateurs web. Anthropic affirme que toutes ont été corrigées, mais retarde la mise sur le marché du modèle en raison de ses capacités jugées trop dangereuses, et a constitué un consortium baptisé Project Glasswing pour tenter de les orienter vers des usages défensifs. L'impact le plus immédiat se mesure à l'échelle et à la vitesse des attaques. L'IA abaisse considérablement le seuil d'entrée pour des attaquants peu qualifiés, en leur fournissant des outils toujours plus performants, moins coûteux et plus rapides à déployer. Les attaques de masse, même peu sophistiquées, peuvent produire des effets dévastateurs dès lors qu'elles sont diffusées à une échelle suffisante : il suffit qu'une cible soit vulnérable ou qu'un destinataire soit pris au dépourvu au mauvais moment. De nombreuses organisations peinent déjà à absorber le volume actuel des cybermenaces, et la situation devrait s'aggraver à mesure que les outils d'IA générative accessibles au grand public continuent de progresser. Ce bras de fer technologique ne se joue toutefois pas à sens unique. L'IA est également mobilisée pour la défense. Microsoft traite chaque jour plus de 100 000 milliards de signaux signalés comme potentiellement malveillants par ses systèmes d'IA, et affirme avoir bloqué entre avril 2024 et avril 2025 l'équivalent de 4 milliards de dollars de fraudes et d'arnaques, dont une part probablement facilitée par des contenus générés par IA. Les chercheurs en cybersécurité estiment que les attaques les moins élaborées peuvent encore être neutralisées par des mesures de base, notamment la mise à jour régulière des logiciels et le respect des protocoles de sécurité réseau. Face à des attaques plus ciblées et plus sophistiquées, la réponse reste bien moins certaine, et la même technologie qui les rend possibles pourrait s'avérer notre meilleure ligne de défense dans les années à venir.

UELes organisations européennes sont directement exposées à cette montée en puissance des cyberattaques dopées à l'IA, notamment le phishing et les deepfakes, sans que les réglementations actuelles (AI Act, NIS2) ne suffisent encore à encadrer les usages offensifs des LLMs.

SécuritéOpinion
1 source
Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités
4Le Big Data 

Deepfakes : YouTube dégaine une arme inédite pour protéger les célébrités

YouTube a annoncé le 21 avril 2026 l'extension de son outil de détection de ressemblance par intelligence artificielle à l'ensemble de l'industrie du divertissement. L'annonce a été faite directement par Neal Mohan, PDG de YouTube, qui a confirmé des partenariats avec plusieurs grandes agences de talent hollywoodiennes, dont CAA, United Talent Agency, WME et Untitled Management. Le système analyse automatiquement les vidéos mises en ligne sur la plateforme afin d'identifier les contenus qui reproduisent artificiellement le visage d'une personnalité inscrite. Les célébrités éligibles peuvent s'inscrire via ces agences partenaires en fournissant simplement une pièce d'identité et une vidéo selfie. Une fois enregistrées, elles accèdent à un tableau de bord listant les contenus détectés et peuvent soumettre des demandes de suppression. Point notable : la protection s'applique même aux artistes ne possédant pas de chaîne YouTube. L'enjeu est considérable dans un contexte où les deepfakes sont devenus techniquement indiscernables de vidéos authentiques. Pour les personnalités publiques, ce type de contenu représente une menace directe : détournement d'image, atteinte à la réputation, propagation de fausses déclarations en quelques heures. Disposer d'un outil de surveillance automatisée et gratuit change concrètement la donne, en permettant une intervention rapide avant qu'une vidéo problématique ne devienne virale. YouTube ne supprime pas systématiquement tous les contenus signalés : la plateforme applique ses règles existantes de confidentialité et de copyright, maintenant des exceptions pour la satire et la parodie, ce qui évite une censure aveugle tout en limitant les usages malveillants. La technologie n'est pas nouvelle pour YouTube : la plateforme la testait depuis 2025 d'abord avec des créateurs de contenu, avant de l'étendre progressivement aux journalistes et responsables politiques. Le déploiement à Hollywood marque une montée en puissance significative, au moment où la prolifération des outils d'IA génératives rend la création de deepfakes accessible à n'importe qui. Cette initiative s'inscrit dans une pression croissante sur les grandes plateformes pour mieux réguler les contenus synthétiques, une problématique que le Congrès américain et plusieurs législateurs européens cherchent à encadrer légalement. Des voix critiques soulèvent déjà le risque de faux positifs, notamment pour des vidéos de fans ou des parodies légitimes, mais YouTube indique que les taux de suppression lors des phases de test sont restés faibles. La question de la scalabilité, lorsque des milliers d'artistes rejoindront le système, reste entière.

UEL'outil est pour l'instant limité aux agences de talent hollywoodiennes américaines, mais la pression réglementaire européenne sur les contenus synthétiques pourrait contraindre YouTube à étendre ce dispositif aux personnalités françaises et européennes.

SécuritéOpinion
1 source