Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store
En janvier 2026, Apple a menacé de retirer l'application X de son App Store en raison de la prolifération de deepfakes pornographiques générés par Grok, le modèle d'intelligence artificielle développé par xAI. Selon un document transmis aux sénateurs américains et révélé par NBC News le 14 avril, Apple a contacté les équipes de X et de xAI pour leur demander de « créer un plan d'amélioration de leur modération de contenu ». À l'issue de plusieurs échanges privés, les deux entreprises sont parvenues à un accord. Apple a estimé que X avait « largement résolu ses violations », mais que Grok restait « non conforme » aux politiques de l'App Store, et a prévenu que l'application pourrait être supprimée faute de remédiation. Cette pression faisait suite à une vague massive de contenus non consentis fin 2025, période pendant laquelle n'importe quel utilisateur d'un compte gratuit pouvait demander à Grok de générer des images dénudées de personnes réelles, souvent des femmes, actrices, pop stars ou personnalités politiques.
La menace d'Apple illustre le rôle croissant que les gatekeepers des plateformes mobiles peuvent jouer dans la régulation des contenus nuisibles, là où les autorités publiques peinent à agir rapidement. Sur les cinq continents, des enquêtes ont été ouvertes, par la Commission de protection des données irlandaise, la Commission européenne et la justice française, et Grok a été interdit en Indonésie et en Malaisie. Pourtant, ces procédures n'ont pas produit de résultats immédiats. C'est finalement la menace de sanction commerciale d'Apple, dont l'App Store représente un accès à des centaines de millions d'utilisateurs iOS, qui a obtenu des engagements concrets. Mi-janvier, le compte sécurité de X s'était engagé publiquement à « supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».
Malgré ces engagements, NBC News a constaté le 14 avril que des dizaines d'images sexuelles générées par IA représentant des personnes réelles continuaient d'être publiées publiquement sur X. Des garde-fous ont bien été déployés : Grok refuse désormais la plupart des demandes de « dénudage » directes ou les requêtes de mise en bikini. Le volume global d'images non consenties a diminué, et aucune des images collectées par NBC ne semble représenter des mineurs. Mais des contournements persistent : certains utilisateurs exploitent des formulations détournées ou combinent plusieurs images, par exemple, demander à Grok d'« intervertir des vêtements » en s'appuyant sur une photo déjà dénudée. Le dossier s'inscrit dans un contexte plus large de prolifération des CSAM générés par IA, qui alimente simultanément des scandales en Europe, dont un récent en Allemagne autour de « viols virtuels » numériques. La capacité des plateformes à refermer durablement ces brèches techniques reste entière.
La Commission européenne, la justice française et l'autorité irlandaise de protection des données ont ouvert des enquêtes sur Grok pour génération de contenus sexuels non consentis, posant la question des garde-fous réglementaires européens face aux manquements des grands modèles d'IA.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



