Pornographie deepfake : corps volés, et l'IA qui divulgue des numéros privés
En 2023, une femme prénommée Jennifer a passé sa photo de profil professionnelle dans un logiciel de reconnaissance faciale pour vérifier si ses anciennes vidéos pour adultes remonteraient dans les résultats. Elles sont apparues, mais avec une surprise : une de ses vidéos originales avait été modifiée, son visage remplacé par celui d'une autre personne. Son corps, lui, était toujours là. Ce cas illustre une réalité peu discutée du deepfake pornographique : si le débat se concentre habituellement sur les victimes dont le visage est incrusté sans consentement dans des contenus explicites, les créatrices de contenu adulte dont le corps est utilisé comme base sont quasi invisibles dans ce débat. Elles témoignent que des systèmes d'IA s'entraînent sur leurs productions, clonent leurs apparences, et génèrent des contenus qu'elles n'ont jamais approuvés, sans protection juridique réelle ni moyen de contrôle. En parallèle, une autre atteinte à la vie privée prend de l'ampleur : des chatbots IA comme Gemini divulguent des numéros de téléphone personnels. Un développeur a commencé à recevoir des messages WhatsApp de parfaits inconnus après que Gemini avait rendu son numéro accessible. Une chercheuse universitaire a réussi à obtenir le numéro privé d'une collègue via le même outil. Un utilisateur Reddit a vu affluer des appels de personnes cherchant des avocats, son numéro ayant été fourni par erreur par l'IA.
Ces deux phénomènes ont des conséquences concrètes et durables. Pour les créatrices de contenu adulte, la perte de contrôle sur leur image corporelle menace directement leurs revenus et leur sécurité, dans un secteur déjà vulnérable juridiquement. Pour les victimes de fuites de numéros, le harcèlement involontaire généré est difficile à stopper : les experts consultés par le MIT Technology Review estiment que ces données personnelles proviennent des corpus d'entraînement des modèles, et qu'aucun mécanisme simple ne permet aux victimes d'y remédier. Ces incidents révèlent une fragilité systémique : l'IA rend triviale la recherche d'informations qui étaient auparavant dispersées ou inaccessibles.
Ces problèmes s'inscrivent dans un contexte plus large de régulation encore balbutiante autour de l'IA générative. Le droit à l'image, la propriété intellectuelle sur les corps, et la protection des données personnelles n'ont pas été conçus pour répondre à ces usages. Pendant ce temps, d'autres signaux alimentent les tensions autour de l'IA : Sam Altman détient plus de deux milliards de dollars d'investissements dans des entreprises ayant des relations commerciales avec OpenAI, soulevant des accusations de conflits d'intérêts examinées par le Parti républicain. Et une étude relayée par 404 Media suggère que les développeurs perdent leurs capacités techniques à force de déléguer à l'IA, alimentant un début de backlash populaire contre sa généralisation.
Le RGPD et l'AI Act encadrent en principe la collecte biométrique et les deepfakes non consentis, mais les victimes européennes disposent de peu de recours concrets face à des modèles entraînés sur des corpus étrangers et des plateformes peu coopératives.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




