Aller au contenu principal
ÉthiqueNext INpact2sem

Deepfakes pornographiques : Apple a menacé de suspendre X de son App Store

Résumé IASources croisées · 3Impact UE
Source originale ↗·
Egalement couvert par :NumeramaThe Verge AI

En janvier 2026, Apple a menacé de retirer l'application X de son App Store en raison de la prolifération de deepfakes pornographiques générés par Grok, le modèle d'intelligence artificielle développé par xAI. Selon un document transmis aux sénateurs américains et révélé par NBC News le 14 avril, Apple a contacté les équipes de X et de xAI pour leur demander de « créer un plan d'amélioration de leur modération de contenu ». À l'issue de plusieurs échanges privés, les deux entreprises sont parvenues à un accord. Apple a estimé que X avait « largement résolu ses violations », mais que Grok restait « non conforme » aux politiques de l'App Store, et a prévenu que l'application pourrait être supprimée faute de remédiation. Cette pression faisait suite à une vague massive de contenus non consentis fin 2025, période pendant laquelle n'importe quel utilisateur d'un compte gratuit pouvait demander à Grok de générer des images dénudées de personnes réelles, souvent des femmes, actrices, pop stars ou personnalités politiques.

La menace d'Apple illustre le rôle croissant que les gatekeepers des plateformes mobiles peuvent jouer dans la régulation des contenus nuisibles, là où les autorités publiques peinent à agir rapidement. Sur les cinq continents, des enquêtes ont été ouvertes, par la Commission de protection des données irlandaise, la Commission européenne et la justice française, et Grok a été interdit en Indonésie et en Malaisie. Pourtant, ces procédures n'ont pas produit de résultats immédiats. C'est finalement la menace de sanction commerciale d'Apple, dont l'App Store représente un accès à des centaines de millions d'utilisateurs iOS, qui a obtenu des engagements concrets. Mi-janvier, le compte sécurité de X s'était engagé publiquement à « supprimer les contenus illicites hautement prioritaires, notamment les contenus pédopornographiques et la nudité non consentie ».

Malgré ces engagements, NBC News a constaté le 14 avril que des dizaines d'images sexuelles générées par IA représentant des personnes réelles continuaient d'être publiées publiquement sur X. Des garde-fous ont bien été déployés : Grok refuse désormais la plupart des demandes de « dénudage » directes ou les requêtes de mise en bikini. Le volume global d'images non consenties a diminué, et aucune des images collectées par NBC ne semble représenter des mineurs. Mais des contournements persistent : certains utilisateurs exploitent des formulations détournées ou combinent plusieurs images, par exemple, demander à Grok d'« intervertir des vêtements » en s'appuyant sur une photo déjà dénudée. Le dossier s'inscrit dans un contexte plus large de prolifération des CSAM générés par IA, qui alimente simultanément des scandales en Europe, dont un récent en Allemagne autour de « viols virtuels » numériques. La capacité des plateformes à refermer durablement ces brèches techniques reste entière.

Impact France/UE

La Commission européenne, la justice française et l'autorité irlandaise de protection des données ont ouvert des enquêtes sur Grok pour génération de contenus sexuels non consentis, posant la question des garde-fous réglementaires européens face aux manquements des grands modèles d'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA
1Le Big Data 

Meta transforme ses salariés en « rats de laboratoire » pour son futur agent IA

Meta surveille les habitudes informatiques de ses employés pour entraîner son futur agent IA. Selon des notes internes révélées par Reuters, l'entreprise a déployé un logiciel de suivi intégré à certains outils professionnels internes, capable d'enregistrer les mouvements de souris, les clics, les frappes clavier et de capturer régulièrement des captures d'écran. Ces données sont collectées sur des applications internes et des sites web professionnels, avec pour objectif de documenter précisément comment les humains interagissent avec leur machine au quotidien. Un porte-parole de Meta confirme que ces informations servent à améliorer la capacité des agents IA à réaliser des tâches concrètes : naviguer dans des menus, cliquer sur des boutons, reproduire des séquences d'actions basiques mais essentielles. L'entreprise assure également que ces données ne seront pas utilisées pour évaluer la performance individuelle des salariés. L'enjeu est considérable pour le développement des agents IA dits "computer use", capables d'opérer directement sur un ordinateur comme le ferait un humain. Les textes, images et vidéos disponibles sur internet sont déjà massivement exploités pour entraîner les grands modèles de langage, mais les données d'interaction réelle avec une interface restent rares et difficiles à obtenir à grande échelle. Des entreprises concurrentes ont recours à des environnements simulés pour générer ce type de données comportementales, une approche coûteuse et imparfaite. En mobilisant directement ses propres employés, Meta accède à des flux de comportements authentiques, dans des contextes de travail réels, ce qui représente un avantage compétitif significatif pour entraîner des agents performants sur des tâches professionnelles. Cette initiative s'inscrit dans un contexte de pression croissante chez Meta autour de l'IA. L'entreprise, qui a massivement investi dans le développement de ses modèles Llama et de ses agents conversationnels, cherche à combler son retard sur des acteurs comme OpenAI ou Google dans le domaine des agents autonomes. En parallèle, Reuters rapporte que Meta envisage de fixer des objectifs d'usage de l'IA à certains de ses personnels, et réfléchirait à une réduction potentielle de ses effectifs mondiaux pouvant atteindre 10 %. La collecte de données sur les employés soulève néanmoins des questions éthiques sur le consentement et la surveillance au travail, même si Meta la présente comme une contribution collective au progrès technologique interne. La frontière entre outil d'entraînement et surveillance professionnelle reste floue, et cette démarche pourrait alimenter les débats réglementaires sur les droits des travailleurs à l'ère de l'IA.

UELe RGPD encadre strictement la surveillance des salariés en Europe, rendant une pratique similaire juridiquement risquée pour toute entreprise opérant dans l'UE, et pourrait accélérer les débats législatifs sur les droits des travailleurs face à l'IA générative.

ÉthiqueActu
1 source
Deepfakes, clones IA, vols de voix : Taylor Swift dit STOP et sort l’artillerie lourde !
2Le Big Data 

Deepfakes, clones IA, vols de voix : Taylor Swift dit STOP et sort l’artillerie lourde !

L'équipe de Taylor Swift a déposé, via TAS Rights Management, plusieurs demandes d'enregistrement de marques visant à protéger deux expressions caractéristiques de l'artiste : « Hey, it's Taylor Swift » et « Hey, it's Taylor ». Ces demandes s'appuient sur des extraits audio tirés de contenus promotionnels liés à son dernier album, "The Life of a Showgirl", dans lesquels on entend la chanteuse annoncer elle-même : « Hey, it's Taylor Swift, and you can listen to my new album The Life of a Showgirl on demand on Amazon Music Unlimited ». Une troisième demande porte sur une photographie de scène la représentant guitare rose en main. Si l'équipe de la star n'a pas officiellement relié ces démarches à la menace de l'IA, le contexte ne laisse guère de place au doute : Taylor Swift a déjà été victime de morceaux générés artificiellement imitant sa voix, ainsi que de deepfakes à caractère sexuel largement diffusés en ligne. Ces démarches illustrent une stratégie juridique émergente face à un vide légal persistant. Le droit d'auteur protège une œuvre, pas une voix, ce qui place les artistes dans une zone grise dès lors que des outils d'IA reproduisent leurs caractéristiques vocales sans copier directement leur catalogue. Les marques déposées pourraient combler partiellement cette lacune : elles permettraient de cibler non seulement les imitations exactes, mais aussi tout contenu « susceptible de prêter à confusion » avec une identité sonore ou visuelle protégée. D'autres célébrités, comme Matthew McConaughey, ont déjà emprunté cette voie pour protéger des répliques emblématiques de leur répertoire. Des maisons de disques ont également contourné les limites du droit d'auteur en attaquant des morceaux imitant des artistes, comme dans le cas d'un titre reproduisant le style de Drake, via des éléments de production identifiables dans l'audio. Malgré tout, les experts juridiques restent divisés sur l'efficacité réelle de ces protections. Plusieurs estiment que déposer de simples phrases comme marques demeure fragile si celles-ci ne fonctionnent pas comme un signal distinctif fort, comparable à un jingle ou un logo sonore. L'arsenal de Taylor Swift reste cependant conséquent : droit à l'image, lois contre la publicité trompeuse, et de nombreuses marques déjà enregistrées sur son nom lui offrent des leviers complémentaires. Le problème de fond est structurel : les cadres légaux n'évoluent pas au même rythme que les outils d'IA. Seules quelques législations locales ont commencé à encadrer les voix synthétiques, et les grandes plateformes comme YouTube ciblent davantage les visages que les voix. Tant que ce vide persiste, les artistes n'auront d'autre choix que d'assembler des stratégies hybrides pour défendre ce qui constitue l'essence même de leur identité publique.

UELa stratégie juridique de Taylor Swift illustre un vide légal qui existe aussi en Europe, où l'AI Act ne protège pas encore explicitement les voix synthétiques reproduites sans consentement.

ÉthiqueOpinion
1 source
3The Verge 

Les célébrités pourront localiser et demander la suppression des deepfakes IA sur YouTube

YouTube étend son outil de détection des deepfakes générés par intelligence artificielle aux célébrités hollywoodiennes. La fonctionnalité, baptisée "likeness detection", analyse automatiquement les vidéos publiées sur la plateforme pour identifier les contenus synthétiques représentant des personnalités publiques inscrites au programme. Ces dernières peuvent ainsi surveiller les apparitions non autorisées de leur image et soumettre des demandes de retrait, évaluées au cas par cas selon la politique de confidentialité de YouTube, sans garantie de suppression systématique. Cet outil représente une avancée concrète dans la lutte contre les deepfakes non consentis, un phénomène en forte croissance depuis la démocratisation des générateurs vidéo par IA. Pour les personnalités publiques, la capacité de détecter et de contester automatiquement ces contenus réduit considérablement le délai entre la publication d'un faux et son signalement, limitant ainsi la propagation de désinformation ou de contenus compromettants. La démarche signale également que YouTube commence à prendre une responsabilité active sur ce type de contenu, plutôt que d'attendre des signalements manuels. YouTube avait commencé à tester cette fonctionnalité auprès des créateurs de contenu à l'automne 2024, avant de l'étendre aux politiciens et journalistes en mars 2026. L'inclusion des célébrités marque une troisième phase d'un déploiement progressif qui suit la pression réglementaire croissante, notamment aux États-Unis et en Europe, autour des contenus synthétiques non consentis. La question de la gouvernance des deepfakes implique désormais directement les grandes plateformes, qui doivent concilier liberté d'expression, protection de l'image et obligations légales émergentes.

UELa pression réglementaire européenne sur les contenus synthétiques non consentis a contribué à accélérer ce déploiement, et l'outil pourrait à terme bénéficier aux personnalités publiques européennes face aux deepfakes non consentis.

ÉthiqueActu
1 source
Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »
4Next INpact 

Clare McGlynn : « l’IA aggrave les violences de genre appuyées sur les technologies »

Clare McGlynn, professeure de droit à l'université de Durham au Royaume-Uni et spécialiste des violences de genre, a publié un rapport de 132 pages analysant la façon dont les systèmes d'intelligence artificielle générative et les modèles d'IA compagnon amplifient les violences faites aux femmes et aux filles dans l'espace numérique. Fruit d'une enquête menée auprès de multiples expertes britanniques du numérique et de l'accompagnement des victimes de violences sexistes, ce travail recense et classe les risques que font peser des outils comme ChatGPT, Claude, Replika ou Character AI sur les femmes. Pour donner la mesure de l'ampleur du phénomène, ces plateformes représentent des audiences considérables : ChatGPT revendique 900 millions d'utilisateurs actifs par semaine, Claude entre 18 et 30 millions par mois, Replika plus de 40 millions d'utilisateurs et Character AI plus de 20 millions d'actifs mensuels. L'enjeu est direct et concret : ces outils, accessibles à tous, peuvent être détournés pour faciliter le harcèlement, le stalking ou la production de contenus dégradants. McGlynn cite notamment la disponibilité de Grok sur X, qui permet selon elle de fournir des informations exploitables par des harceleurs, ainsi que la vague récente de deepfakes pornographiques générés par IA. Le rapport identifie trois catégories de risques, dont la plus inédite concerne les comportements problématiques "générés automatiquement" par les systèmes eux-mêmes, sans même nécessiter d'intention malveillante de l'utilisateur. Ce glissement marque une rupture : la violence ne découle plus seulement d'un usage détourné, mais peut émerger du fonctionnement ordinaire des modèles. L'initiative de McGlynn s'inscrit dans un mouvement plus large de prise de conscience autour des dommages genrés du numérique. La chercheuse dit avoir été alertée en lisant The New Age of Sexism de Laura Bates (Simon and Schuster, mai 2025), ouvrage dans lequel l'autrice consacre un chapitre entier aux chatbots. Ce constat rejoint celui de Maeve Walsh, directrice de l'Online Safety Act Network, qui observe que chaque cycle d'accélération technologique produit en premier lieu des violences contre les femmes et les filles. Jusqu'ici, les travaux académiques traitaient les problèmes de façon fragmentée, sans vue d'ensemble. Ce rapport entend combler ce manque et ouvrir un débat public sur la régulation de ces systèmes, à un moment où les législateurs européens et britanniques commencent à se saisir des enjeux de sécurité en ligne.

UELes conclusions du rapport alimentent le débat réglementaire européen sur les obligations de sécurité des plateformes IA, à l'heure où l'AI Act et le Digital Services Act encadrent la responsabilité des fournisseurs face aux contenus préjudiciables genrés.

ÉthiqueOpinion
1 source