Aller au contenu principal
Le choc de voir son corps utilisé dans un deepfake pornographique
ÉthiqueMIT Technology Review49min

Le choc de voir son corps utilisé dans un deepfake pornographique

Résumé IASource uniqueImpact UE
Source originale ↗·

En 2023, Jennifer, psychothérapeute de 37 ans installée à New York, a passé sa nouvelle photo professionnelle dans un logiciel de reconnaissance faciale pour vérifier si ses anciennes vidéos d'adultes, tournées une décennie plus tôt, remontaient dans les résultats. Le programme a bien retrouvé certains de ses contenus, mais aussi quelque chose qu'elle n'avait jamais vu : une de ses vidéos de 2013, avec le corps qui était le sien, mais un visage étranger à la place du sien. L'outil l'avait identifiée parce que ses traits physiques restaient visibles sous le visage substitué, ses pommettes, son front, la forme de son menton. Ce phénomène s'inscrit dans la catégorie des "deepfakes sexuels", qui relèvent plus largement des images intimes non consenties (NCII). Le terme "deepfake" lui-même est apparu en novembre 2017, quand un utilisateur Reddit du même nom a mis en ligne des vidéos montrant les visages de célébrités comme Scarlett Johansson ou Gal Gadot collés sur des corps de performers adultes. Selon l'avocat Corey Silverstein, spécialiste du secteur, l'utilisation non consentie des corps de ces acteurs "arrive en permanence" dans ce type de contenu.

Ce qui rend la situation particulièrement préoccupante, c'est que le débat public sur les deepfakes se concentre presque exclusivement sur les personnes dont le visage est utilisé sans autorisation, souvent des célébrités ou des particulières. La question du corps, elle, reste systématiquement ignorée. Pourtant, pour les créateurs de contenu adulte, les enjeux sont doubles : d'un côté, leur travail est piraté et détourné directement, de l'autre, il sert de données d'entraînement aux modèles d'IA générative qui apprennent à reproduire des corps, des mouvements, des performances sexuelles. Ces modèles alimentent à leur tour des applications de "nudification" en pleine prolifération, capables de générer des images réalistes sans avoir besoin de puiser directement dans du contenu identifiable. Le résultat : les performers voient leur gagne-pain menacé par des avatars IA formés sur leur propre travail, qui pourraient les concurrencer ou les remplacer.

Les avancées récentes de l'IA compliquent encore davantage la situation en permettant de recréer intégralement l'apparence d'un performer sans son consentement, y compris dans des situations ou des actes qu'il n'a jamais accepté de tourner. Des doubles numériques peuvent ainsi être mis en scène dans des escroqueries ciblant les fans, ou associés à des pratiques que l'acteur refuse catégoriquement dans la réalité. Ces créateurs, déjà fragilisés par une société qui peine à reconnaître leurs droits et leur sécurité, se retrouvent dans une position encore plus vulnérable. Silverstein reçoit chaque jour des acteurs inquiets de voir leurs contenus exploités par l'IA, cherchant comment se protéger d'une menace que le droit peine encore à saisir.

Impact France/UE

Le phénomène des deepfakes pornographiques non consentis touche également des victimes européennes, dans un contexte où l'AI Act et plusieurs législations nationales commencent à encadrer la création et la diffusion d'images intimes générées par IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store
1Next INpact 

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier 2026, Apple a menacé de retirer l'application X de son App Store en raison de la prolifération de deepfakes pornographiques générés par Grok, le modèle d'intelligence artificielle développé par xAI. Selon un document transmis aux sénateurs américains et révélé par NBC News le 14 avril, Apple a contacté les équipes de X et de xAI pour leur demander de « créer un plan d'amélioration de leur modération de contenu ». À l'issue de plusieurs échanges privés, les deux entreprises sont parvenues à un accord. Apple a estimé que X avait « largement résolu ses violations », mais que Grok restait « non conforme » aux politiques de l'App Store, et a prévenu que l'application pourrait être supprimée faute de remédiation. Cette pression faisait suite à une vague massive de contenus non consentis fin 2025, période pendant laquelle n'importe quel utilisateur d'un compte gratuit pouvait demander à Grok de générer des images dénudées de personnes réelles, souvent des femmes, actrices, pop stars ou personnalités politiques. La menace d'Apple illustre le rôle croissant que les gatekeepers des plateformes mobiles peuvent jouer dans la régulation des contenus nuisibles, là où les autorités publiques peinent à agir rapidement. Sur les cinq continents, des enquêtes ont été ouvertes, par la Commission de protection des données irlandaise, la Commission européenne et la justice française, et Grok a été interdit en Indonésie et en Malaisie. Pourtant, ces procédures n'ont pas produit de résultats immédiats. C'est finalement la menace de sanction commerciale d'Apple, dont l'App Store représente un accès à des centaines de millions d'utilisateurs iOS, qui a obtenu des engagements concrets. Mi-janvier, le compte sécurité de X s'était engagé publiquement à « supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ». Malgré ces engagements, NBC News a constaté le 14 avril que des dizaines d'images sexuelles générées par IA représentant des personnes réelles continuaient d'être publiées publiquement sur X. Des garde-fous ont bien été déployés : Grok refuse désormais la plupart des demandes de « dénudage » directes ou les requêtes de mise en bikini. Le volume global d'images non consenties a diminué, et aucune des images collectées par NBC ne semble représenter des mineurs. Mais des contournements persistent : certains utilisateurs exploitent des formulations détournées ou combinent plusieurs images, par exemple, demander à Grok d'« intervertir des vêtements » en s'appuyant sur une photo déjà dénudée. Le dossier s'inscrit dans un contexte plus large de prolifération des CSAM générés par IA, qui alimente simultanément des scandales en Europe, dont un récent en Allemagne autour de « viols virtuels » numériques. La capacité des plateformes à refermer durablement ces brèches techniques reste entière.

UELa Commission européenne, la justice française et l'autorité irlandaise de protection des données ont ouvert des enquêtes sur Grok pour génération de contenus sexuels non consentis, posant la question des garde-fous réglementaires européens face aux manquements des grands modèles d'IA.

ÉthiqueActu
1 source
Meta AI : un vrai pot de colle, vous ne pouvez pas le bloquer sur Threads
2Le Big Data 

Meta AI : un vrai pot de colle, vous ne pouvez pas le bloquer sur Threads

Meta a annoncé mardi le lancement d'un test de sa fonctionnalité Meta AI directement intégrée à Threads, son réseau social concurrent de X. Le principe reprend le modèle de Grok chez xAI : les utilisateurs peuvent mentionner le compte @Meta AI dans n'importe quelle conversation pour déclencher une réponse automatique de l'assistant. Le déploiement reste pour l'instant limité à cinq pays : l'Argentine, la Malaisie, le Mexique, l'Arabie saoudite et Singapour. L'IA peut répondre à des questions du quotidien, comme expliquer la tendance du matcha ou indiquer la prononciation du mot "Cannes", selon une vidéo de démonstration publiée par Meta elle-même. Le problème central qui a enflammé la plateforme tient en un mot : le blocage est impossible. Contrairement à n'importe quel autre compte sur Threads, Meta AI ne peut pas être bloqué par les utilisateurs. L'option habituelle, accessible via les trois points du profil, disparaît purement et simplement du menu. Certains utilisateurs ont signalé avoir brièvement aperçu le bouton avant de recevoir un message d'erreur en tentant de l'utiliser. La grogne a rapidement pris de l'ampleur : le sujet "Impossible de bloquer Meta AI" est devenu viral avec plus d'un million de publications sur la plateforme, avant de disparaître mystérieusement des tendances, ce qui n'a fait qu'amplifier la méfiance. Face à la pression, Meta a répondu via sa porte-parole Christine Pai, qui assure que les utilisateurs peuvent "gérer leur expérience" en masquant certaines réponses, en les désactivant dans leur fil ou en sélectionnant l'option "Pas intéressé(e)". Le blocage direct, lui, reste indisponible. Cette situation illustre une tension de fond qui traverse toute l'industrie des réseaux sociaux : l'intégration forcée d'assistants IA dans des espaces de conversation que les utilisateurs considèrent comme les leurs. Meta, qui cherche à monétiser et valoriser ses investissements massifs dans l'IA, a tout intérêt à maximiser l'exposition de Meta AI à travers ses milliards d'utilisateurs sur Facebook, Instagram et Threads. Mais l'absence d'option de blocage soulève des questions légitimes sur le consentement et le contrôle des utilisateurs, particulièrement en Europe où le cadre réglementaire du RGPD impose des obligations strictes en la matière. Si le test se conclut par un déploiement mondial, Meta devra probablement trancher : soit introduire une vraie option de blocage pour respecter les attentes des utilisateurs et les réglementations, soit assumer pleinement le choix de rendre son IA incontournable sur la plateforme.

UEL'impossibilité de bloquer Meta AI soulève une question de conformité directe avec le RGPD sur le consentement éclairé, ce qui obligera Meta à adapter la fonctionnalité avant tout déploiement en Europe.

💬 C'est pas un oubli, c'est assumé. Proposer "masquer la réponse" à la place du blocage, c'est la fausse alternative typique de Meta : l'IA reste dans ton fil, elle répond, elle collecte, tu n'as juste plus à la voir. Le RGPD va adorer ça.

ÉthiqueOpinion
1 source
Deepfakes, clones IA, vols de voix : Taylor Swift dit STOP et sort l’artillerie lourde !
3Le Big Data 

Deepfakes, clones IA, vols de voix : Taylor Swift dit STOP et sort l’artillerie lourde !

L'équipe de Taylor Swift a déposé, via TAS Rights Management, plusieurs demandes d'enregistrement de marques visant à protéger deux expressions caractéristiques de l'artiste : « Hey, it's Taylor Swift » et « Hey, it's Taylor ». Ces demandes s'appuient sur des extraits audio tirés de contenus promotionnels liés à son dernier album, "The Life of a Showgirl", dans lesquels on entend la chanteuse annoncer elle-même : « Hey, it's Taylor Swift, and you can listen to my new album The Life of a Showgirl on demand on Amazon Music Unlimited ». Une troisième demande porte sur une photographie de scène la représentant guitare rose en main. Si l'équipe de la star n'a pas officiellement relié ces démarches à la menace de l'IA, le contexte ne laisse guère de place au doute : Taylor Swift a déjà été victime de morceaux générés artificiellement imitant sa voix, ainsi que de deepfakes à caractère sexuel largement diffusés en ligne. Ces démarches illustrent une stratégie juridique émergente face à un vide légal persistant. Le droit d'auteur protège une œuvre, pas une voix, ce qui place les artistes dans une zone grise dès lors que des outils d'IA reproduisent leurs caractéristiques vocales sans copier directement leur catalogue. Les marques déposées pourraient combler partiellement cette lacune : elles permettraient de cibler non seulement les imitations exactes, mais aussi tout contenu « susceptible de prêter à confusion » avec une identité sonore ou visuelle protégée. D'autres célébrités, comme Matthew McConaughey, ont déjà emprunté cette voie pour protéger des répliques emblématiques de leur répertoire. Des maisons de disques ont également contourné les limites du droit d'auteur en attaquant des morceaux imitant des artistes, comme dans le cas d'un titre reproduisant le style de Drake, via des éléments de production identifiables dans l'audio. Malgré tout, les experts juridiques restent divisés sur l'efficacité réelle de ces protections. Plusieurs estiment que déposer de simples phrases comme marques demeure fragile si celles-ci ne fonctionnent pas comme un signal distinctif fort, comparable à un jingle ou un logo sonore. L'arsenal de Taylor Swift reste cependant conséquent : droit à l'image, lois contre la publicité trompeuse, et de nombreuses marques déjà enregistrées sur son nom lui offrent des leviers complémentaires. Le problème de fond est structurel : les cadres légaux n'évoluent pas au même rythme que les outils d'IA. Seules quelques législations locales ont commencé à encadrer les voix synthétiques, et les grandes plateformes comme YouTube ciblent davantage les visages que les voix. Tant que ce vide persiste, les artistes n'auront d'autre choix que d'assembler des stratégies hybrides pour défendre ce qui constitue l'essence même de leur identité publique.

UELa stratégie juridique de Taylor Swift illustre un vide légal qui existe aussi en Europe, où l'AI Act ne protège pas encore explicitement les voix synthétiques reproduites sans consentement.

ÉthiqueOpinion
1 source
4Next INpact 

☕️ OkCupid épinglé pour un transfert de photos d’utilisateurs vers une société d’IA

En mars 2026, OkCupid et sa maison mère Match Group ont conclu un accord avec la Federal Trade Commission (FTC) américaine après la révélation que le site de rencontres avait transmis illégalement les données de ses utilisateurs à une société d'intelligence artificielle. Au cœur de l'affaire : 3 millions de photos d'utilisateurs, accompagnées de données démographiques et de géolocalisation, livrées à Clarifai, une entreprise spécialisée dans la reconnaissance faciale. Les faits remontent à 2014, lorsque Matthew Zeiler, fondateur de Clarifai, contactait Maxwell Khron, cofondateur d'OkCupid, pour obtenir un accès massif aux données du site, dont des dirigeants d'OkCupid étaient par ailleurs actionnaires. Ce transfert s'est effectué sans aucune restriction sur l'usage ultérieur des informations, sans notification aux utilisateurs et sans possibilité pour eux de s'y opposer. L'accord avec la FTC, finalisé fin mars 2026, oblige OkCupid et Match à ne plus induire en erreur leurs membres sur l'utilisation de leurs données personnelles, mais n'implique aucune sanction financière, la FTC ne disposant pas de ce pouvoir. Le scandale illustre une pratique qui touche directement des millions de personnes ayant confié leurs photos et informations intimes à une plateforme de rencontres, sans jamais imaginer que ces données alimenteraient des modèles de reconnaissance faciale commerciaux et militaires. Clarifai compte en effet parmi ses clients l'armée américaine, ce qui soulève des questions sérieuses sur l'usage final de ces données biométriques. L'absence totale de consentement, combinée à la violation explicite de la propre politique de confidentialité d'OkCupid, place cet accord dans la catégorie des manquements les plus graves aux droits des utilisateurs : non seulement les règles internes ont été bafouées, mais une loi fédérale interdisant les pratiques commerciales trompeuses l'a également été. L'enquête de la FTC, ouverte en 2019, aura mis cinq ans à aboutir à un règlement qui, pour beaucoup d'observateurs, reste insuffisant face à l'ampleur des faits. Clarifai, qui n'était pas formellement mise en cause dans la procédure, a affirmé avoir supprimé les données reçues d'OkCupid, mais seulement douze ans après les faits, et sans préciser combien de modèles avaient été entraînés sur ces données ni pendant combien de temps ils avaient été utilisés ou commercialisés. L'affaire s'inscrit dans un contexte plus large de monétisation opaque des données issues des applications de rencontres : des enquêtes parallèles ont révélé que des données similaires ont été revendues pour identifier des membres du clergé catholique. Match Group, qui opère également Tinder, Hinge et plusieurs autres plateformes, se retrouve ainsi au centre d'un débat croissant sur la gouvernance des données personnelles sensibles dans le secteur des applications de rencontres.

UELes utilisateurs français et européens de Tinder, Hinge et OkCupid (Match Group) sont concernés par des pratiques de partage de données biométriques similaires potentiellement contraires au RGPD, soulevant des questions sur la gouvernance des données sensibles par les plateformes de rencontres opérant en Europe.

ÉthiqueReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour