
Le choc de voir son corps utilisé dans un deepfake pornographique
En 2023, Jennifer, psychothérapeute de 37 ans installée à New York, a passé sa nouvelle photo professionnelle dans un logiciel de reconnaissance faciale pour vérifier si ses anciennes vidéos d'adultes, tournées une décennie plus tôt, remontaient dans les résultats. Le programme a bien retrouvé certains de ses contenus, mais aussi quelque chose qu'elle n'avait jamais vu : une de ses vidéos de 2013, avec le corps qui était le sien, mais un visage étranger à la place du sien. L'outil l'avait identifiée parce que ses traits physiques restaient visibles sous le visage substitué, ses pommettes, son front, la forme de son menton. Ce phénomène s'inscrit dans la catégorie des "deepfakes sexuels", qui relèvent plus largement des images intimes non consenties (NCII). Le terme "deepfake" lui-même est apparu en novembre 2017, quand un utilisateur Reddit du même nom a mis en ligne des vidéos montrant les visages de célébrités comme Scarlett Johansson ou Gal Gadot collés sur des corps de performers adultes. Selon l'avocat Corey Silverstein, spécialiste du secteur, l'utilisation non consentie des corps de ces acteurs "arrive en permanence" dans ce type de contenu.
Ce qui rend la situation particulièrement préoccupante, c'est que le débat public sur les deepfakes se concentre presque exclusivement sur les personnes dont le visage est utilisé sans autorisation, souvent des célébrités ou des particulières. La question du corps, elle, reste systématiquement ignorée. Pourtant, pour les créateurs de contenu adulte, les enjeux sont doubles : d'un côté, leur travail est piraté et détourné directement, de l'autre, il sert de données d'entraînement aux modèles d'IA générative qui apprennent à reproduire des corps, des mouvements, des performances sexuelles. Ces modèles alimentent à leur tour des applications de "nudification" en pleine prolifération, capables de générer des images réalistes sans avoir besoin de puiser directement dans du contenu identifiable. Le résultat : les performers voient leur gagne-pain menacé par des avatars IA formés sur leur propre travail, qui pourraient les concurrencer ou les remplacer.
Les avancées récentes de l'IA compliquent encore davantage la situation en permettant de recréer intégralement l'apparence d'un performer sans son consentement, y compris dans des situations ou des actes qu'il n'a jamais accepté de tourner. Des doubles numériques peuvent ainsi être mis en scène dans des escroqueries ciblant les fans, ou associés à des pratiques que l'acteur refuse catégoriquement dans la réalité. Ces créateurs, déjà fragilisés par une société qui peine à reconnaître leurs droits et leur sécurité, se retrouvent dans une position encore plus vulnérable. Silverstein reçoit chaque jour des acteurs inquiets de voir leurs contenus exploités par l'IA, cherchant comment se protéger d'une menace que le droit peine encore à saisir.
Le phénomène des deepfakes pornographiques non consentis touche également des victimes européennes, dans un contexte où l'AI Act et plusieurs législations nationales commencent à encadrer la création et la diffusion d'images intimes générées par IA.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



