Aller au contenu principal
ÉthiqueMIT Technology Review31min

Pornographie deepfake : corps volés, et l'IA qui divulgue des numéros privés

Résumé IASource uniqueImpact UE
Source originale ↗·

En 2023, une femme prénommée Jennifer a passé sa photo de profil professionnelle dans un logiciel de reconnaissance faciale pour vérifier si ses anciennes vidéos pour adultes remonteraient dans les résultats. Elles sont apparues, mais avec une surprise : une de ses vidéos originales avait été modifiée, son visage remplacé par celui d'une autre personne. Son corps, lui, était toujours là. Ce cas illustre une réalité peu discutée du deepfake pornographique : si le débat se concentre habituellement sur les victimes dont le visage est incrusté sans consentement dans des contenus explicites, les créatrices de contenu adulte dont le corps est utilisé comme base sont quasi invisibles dans ce débat. Elles témoignent que des systèmes d'IA s'entraînent sur leurs productions, clonent leurs apparences, et génèrent des contenus qu'elles n'ont jamais approuvés, sans protection juridique réelle ni moyen de contrôle. En parallèle, une autre atteinte à la vie privée prend de l'ampleur : des chatbots IA comme Gemini divulguent des numéros de téléphone personnels. Un développeur a commencé à recevoir des messages WhatsApp de parfaits inconnus après que Gemini avait rendu son numéro accessible. Une chercheuse universitaire a réussi à obtenir le numéro privé d'une collègue via le même outil. Un utilisateur Reddit a vu affluer des appels de personnes cherchant des avocats, son numéro ayant été fourni par erreur par l'IA.

Ces deux phénomènes ont des conséquences concrètes et durables. Pour les créatrices de contenu adulte, la perte de contrôle sur leur image corporelle menace directement leurs revenus et leur sécurité, dans un secteur déjà vulnérable juridiquement. Pour les victimes de fuites de numéros, le harcèlement involontaire généré est difficile à stopper : les experts consultés par le MIT Technology Review estiment que ces données personnelles proviennent des corpus d'entraînement des modèles, et qu'aucun mécanisme simple ne permet aux victimes d'y remédier. Ces incidents révèlent une fragilité systémique : l'IA rend triviale la recherche d'informations qui étaient auparavant dispersées ou inaccessibles.

Ces problèmes s'inscrivent dans un contexte plus large de régulation encore balbutiante autour de l'IA générative. Le droit à l'image, la propriété intellectuelle sur les corps, et la protection des données personnelles n'ont pas été conçus pour répondre à ces usages. Pendant ce temps, d'autres signaux alimentent les tensions autour de l'IA : Sam Altman détient plus de deux milliards de dollars d'investissements dans des entreprises ayant des relations commerciales avec OpenAI, soulevant des accusations de conflits d'intérêts examinées par le Parti républicain. Et une étude relayée par 404 Media suggère que les développeurs perdent leurs capacités techniques à force de déléguer à l'IA, alimentant un début de backlash populaire contre sa généralisation.

Impact France/UE

Le RGPD et l'AI Act encadrent en principe la collecte biométrique et les deepfakes non consentis, mais les victimes européennes disposent de peu de recours concrets face à des modèles entraînés sur des corpus étrangers et des plateformes peu coopératives.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le choc de voir son corps utilisé dans un deepfake pornographique
1MIT Technology Review 

Le choc de voir son corps utilisé dans un deepfake pornographique

En 2023, Jennifer, psychothérapeute de 37 ans installée à New York, a passé sa nouvelle photo professionnelle dans un logiciel de reconnaissance faciale pour vérifier si ses anciennes vidéos d'adultes, tournées une décennie plus tôt, remontaient dans les résultats. Le programme a bien retrouvé certains de ses contenus, mais aussi quelque chose qu'elle n'avait jamais vu : une de ses vidéos de 2013, avec le corps qui était le sien, mais un visage étranger à la place du sien. L'outil l'avait identifiée parce que ses traits physiques restaient visibles sous le visage substitué, ses pommettes, son front, la forme de son menton. Ce phénomène s'inscrit dans la catégorie des "deepfakes sexuels", qui relèvent plus largement des images intimes non consenties (NCII). Le terme "deepfake" lui-même est apparu en novembre 2017, quand un utilisateur Reddit du même nom a mis en ligne des vidéos montrant les visages de célébrités comme Scarlett Johansson ou Gal Gadot collés sur des corps de performers adultes. Selon l'avocat Corey Silverstein, spécialiste du secteur, l'utilisation non consentie des corps de ces acteurs "arrive en permanence" dans ce type de contenu. Ce qui rend la situation particulièrement préoccupante, c'est que le débat public sur les deepfakes se concentre presque exclusivement sur les personnes dont le visage est utilisé sans autorisation, souvent des célébrités ou des particulières. La question du corps, elle, reste systématiquement ignorée. Pourtant, pour les créateurs de contenu adulte, les enjeux sont doubles : d'un côté, leur travail est piraté et détourné directement, de l'autre, il sert de données d'entraînement aux modèles d'IA générative qui apprennent à reproduire des corps, des mouvements, des performances sexuelles. Ces modèles alimentent à leur tour des applications de "nudification" en pleine prolifération, capables de générer des images réalistes sans avoir besoin de puiser directement dans du contenu identifiable. Le résultat : les performers voient leur gagne-pain menacé par des avatars IA formés sur leur propre travail, qui pourraient les concurrencer ou les remplacer. Les avancées récentes de l'IA compliquent encore davantage la situation en permettant de recréer intégralement l'apparence d'un performer sans son consentement, y compris dans des situations ou des actes qu'il n'a jamais accepté de tourner. Des doubles numériques peuvent ainsi être mis en scène dans des escroqueries ciblant les fans, ou associés à des pratiques que l'acteur refuse catégoriquement dans la réalité. Ces créateurs, déjà fragilisés par une société qui peine à reconnaître leurs droits et leur sécurité, se retrouvent dans une position encore plus vulnérable. Silverstein reçoit chaque jour des acteurs inquiets de voir leurs contenus exploités par l'IA, cherchant comment se protéger d'une menace que le droit peine encore à saisir.

UELe phénomène des deepfakes pornographiques non consentis touche également des victimes européennes, dans un contexte où l'AI Act et plusieurs législations nationales commencent à encadrer la création et la diffusion d'images intimes générées par IA.

ÉthiqueActu
1 source
Des chatbots IA divulguent de vrais numéros de téléphone
2MIT Technology Review 

Des chatbots IA divulguent de vrais numéros de téléphone

Depuis plusieurs mois, des utilisateurs de Google Gemini signalent un phénomène alarmant : le chatbot d'IA fournit de vrais numéros de téléphone personnels lorsqu'on lui demande des informations de contact pour des entreprises. En mars, Daniel Abraham, développeur logiciel israélien de 28 ans, a reçu un message WhatsApp d'un inconnu cherchant à contacter le service client de PayBox, une application de paiement israélienne, Gemini lui avait fourni le numéro personnel d'Abraham, qui n'a aucun lien avec la société. Lorsqu'Abraham a lui-même interrogé Gemini sur PayBox, le chatbot a généré un autre numéro WhatsApp appartenant à un particulier. Un Redditor a également rapporté avoir été submergé d'appels pendant un mois entier de la part d'inconnus cherchant avocats, designers ou serruriers. En avril, une doctorante de l'Université de Washington a obtenu de Gemini le numéro de portable personnel d'un collègue. La cause probable, selon les experts, est l'utilisation d'informations personnelles identifiables dans les données d'entraînement des modèles. Ces incidents illustrent un risque concret et massif pour la vie privée. DeleteMe, entreprise spécialisée dans la suppression de données personnelles en ligne, signale une hausse de 400 % des demandes liées à l'IA générative en sept mois, atteignant plusieurs milliers de requêtes. Parmi ces signalements, 55 % concernent ChatGPT, 20 % Gemini, 15 % Claude et 10 % d'autres outils. Les plaintes prennent deux formes : soit un utilisateur obtient ses propres données personnelles (adresse, numéro de téléphone, membres de sa famille, employeur) en interrogeant le chatbot sur lui-même, soit le chatbot génère des coordonnées plausibles mais erronées appartenant à de vraies personnes tierces. Dans les deux cas, les conséquences peuvent être graves : harcèlement, arnaques, usurpation d'identité. Et pour l'instant, il n'existe aucun mécanisme simple permettant aux victimes de faire retirer leurs données de ces systèmes. Ce problème s'inscrit dans un débat plus large sur la façon dont les géants de l'IA constituent leurs données d'entraînement. Les modèles de langage comme Gemini sont entraînés sur des corpus massifs extraits du web, qui contiennent inévitablement des informations personnelles publiées dans des annuaires, forums ou pages professionnelles. Contrairement aux moteurs de recherche classiques qui renvoient vers des sources vérifiables, les chatbots génèrent des réponses synthétiques sans transparence sur leur origine, rendant la vérification impossible pour l'utilisateur. Google n'a pas fourni d'explication sur les mécanismes précis à l'oeuvre, ni de solution pour les personnes dont les numéros circulent ainsi. Avec la généralisation des assistants IA dans les usages quotidiens, cette faille soulève des questions réglementaires urgentes, notamment en Europe où le RGPD impose des obligations strictes sur le traitement des données personnelles.

UELe RGPD impose aux éditeurs de chatbots des obligations strictes sur le traitement et l'effacement des données personnelles, exposant Google et ses concurrents à des sanctions potentielles de la CNIL et des autorités européennes de protection des données.

💬 Des gens se font harceler au téléphone parce que Gemini a craché leur numéro perso à des inconnus cherchant un serrurier ou un avocat. Ce qui me choque, c'est qu'il n'existe aucun mécanisme pour faire retirer ses données de ces modèles (Google n'a pas daigné expliquer comment, d'ailleurs). Si t'as un profil visible en ligne, ton numéro est peut-être quelque part dans un corpus d'entraînement.

ÉthiqueOpinion
1 source
Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store
3Next INpact 

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

En janvier 2026, Apple a menacé de retirer l'application X de son App Store en raison de la prolifération de deepfakes pornographiques générés par Grok, le modèle d'intelligence artificielle développé par xAI. Selon un document transmis aux sénateurs américains et révélé par NBC News le 14 avril, Apple a contacté les équipes de X et de xAI pour leur demander de « créer un plan d'amélioration de leur modération de contenu ». À l'issue de plusieurs échanges privés, les deux entreprises sont parvenues à un accord. Apple a estimé que X avait « largement résolu ses violations », mais que Grok restait « non conforme » aux politiques de l'App Store, et a prévenu que l'application pourrait être supprimée faute de remédiation. Cette pression faisait suite à une vague massive de contenus non consentis fin 2025, période pendant laquelle n'importe quel utilisateur d'un compte gratuit pouvait demander à Grok de générer des images dénudées de personnes réelles, souvent des femmes, actrices, pop stars ou personnalités politiques. La menace d'Apple illustre le rôle croissant que les gatekeepers des plateformes mobiles peuvent jouer dans la régulation des contenus nuisibles, là où les autorités publiques peinent à agir rapidement. Sur les cinq continents, des enquêtes ont été ouvertes, par la Commission de protection des données irlandaise, la Commission européenne et la justice française, et Grok a été interdit en Indonésie et en Malaisie. Pourtant, ces procédures n'ont pas produit de résultats immédiats. C'est finalement la menace de sanction commerciale d'Apple, dont l'App Store représente un accès à des centaines de millions d'utilisateurs iOS, qui a obtenu des engagements concrets. Mi-janvier, le compte sécurité de X s'était engagé publiquement à « supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ». Malgré ces engagements, NBC News a constaté le 14 avril que des dizaines d'images sexuelles générées par IA représentant des personnes réelles continuaient d'être publiées publiquement sur X. Des garde-fous ont bien été déployés : Grok refuse désormais la plupart des demandes de « dénudage » directes ou les requêtes de mise en bikini. Le volume global d'images non consenties a diminué, et aucune des images collectées par NBC ne semble représenter des mineurs. Mais des contournements persistent : certains utilisateurs exploitent des formulations détournées ou combinent plusieurs images, par exemple, demander à Grok d'« intervertir des vêtements » en s'appuyant sur une photo déjà dénudée. Le dossier s'inscrit dans un contexte plus large de prolifération des CSAM générés par IA, qui alimente simultanément des scandales en Europe, dont un récent en Allemagne autour de « viols virtuels » numériques. La capacité des plateformes à refermer durablement ces brèches techniques reste entière.

UELa Commission européenne, la justice française et l'autorité irlandaise de protection des données ont ouvert des enquêtes sur Grok pour génération de contenus sexuels non consentis, posant la question des garde-fous réglementaires européens face aux manquements des grands modèles d'IA.

ÉthiqueActu
1 source
Deepfakes, clones IA, vols de voix : Taylor Swift dit STOP et sort l’artillerie lourde !
4Le Big Data 

Deepfakes, clones IA, vols de voix : Taylor Swift dit STOP et sort l’artillerie lourde !

L'équipe de Taylor Swift a déposé, via TAS Rights Management, plusieurs demandes d'enregistrement de marques visant à protéger deux expressions caractéristiques de l'artiste : « Hey, it's Taylor Swift » et « Hey, it's Taylor ». Ces demandes s'appuient sur des extraits audio tirés de contenus promotionnels liés à son dernier album, "The Life of a Showgirl", dans lesquels on entend la chanteuse annoncer elle-même : « Hey, it's Taylor Swift, and you can listen to my new album The Life of a Showgirl on demand on Amazon Music Unlimited ». Une troisième demande porte sur une photographie de scène la représentant guitare rose en main. Si l'équipe de la star n'a pas officiellement relié ces démarches à la menace de l'IA, le contexte ne laisse guère de place au doute : Taylor Swift a déjà été victime de morceaux générés artificiellement imitant sa voix, ainsi que de deepfakes à caractère sexuel largement diffusés en ligne. Ces démarches illustrent une stratégie juridique émergente face à un vide légal persistant. Le droit d'auteur protège une œuvre, pas une voix, ce qui place les artistes dans une zone grise dès lors que des outils d'IA reproduisent leurs caractéristiques vocales sans copier directement leur catalogue. Les marques déposées pourraient combler partiellement cette lacune : elles permettraient de cibler non seulement les imitations exactes, mais aussi tout contenu « susceptible de prêter à confusion » avec une identité sonore ou visuelle protégée. D'autres célébrités, comme Matthew McConaughey, ont déjà emprunté cette voie pour protéger des répliques emblématiques de leur répertoire. Des maisons de disques ont également contourné les limites du droit d'auteur en attaquant des morceaux imitant des artistes, comme dans le cas d'un titre reproduisant le style de Drake, via des éléments de production identifiables dans l'audio. Malgré tout, les experts juridiques restent divisés sur l'efficacité réelle de ces protections. Plusieurs estiment que déposer de simples phrases comme marques demeure fragile si celles-ci ne fonctionnent pas comme un signal distinctif fort, comparable à un jingle ou un logo sonore. L'arsenal de Taylor Swift reste cependant conséquent : droit à l'image, lois contre la publicité trompeuse, et de nombreuses marques déjà enregistrées sur son nom lui offrent des leviers complémentaires. Le problème de fond est structurel : les cadres légaux n'évoluent pas au même rythme que les outils d'IA. Seules quelques législations locales ont commencé à encadrer les voix synthétiques, et les grandes plateformes comme YouTube ciblent davantage les visages que les voix. Tant que ce vide persiste, les artistes n'auront d'autre choix que d'assembler des stratégies hybrides pour défendre ce qui constitue l'essence même de leur identité publique.

UELa stratégie juridique de Taylor Swift illustre un vide légal qui existe aussi en Europe, où l'AI Act ne protège pas encore explicitement les voix synthétiques reproduites sans consentement.

ÉthiqueOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour