Aller au contenu principal
RégulationArs Technica AI6sem

L'UE s'apprête à interdire les applications de déshabillage après que Grok les a démocratisées

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

L'Union européenne s'apprête à interdire les applications de déshabillage par intelligence artificielle, communément appelées nudify apps. Le vote des commissions du Marché intérieur et des Libertés civiles du Parlement européen a été sans appel : 101 voix pour, 9 contre, avec 8 abstentions, en faveur d'une simplification de la loi sur l'IA assortie d'une interdiction explicite de ces systèmes.

Cette initiative législative fait suite à une prise de conscience tardive mais urgente : la Commission européenne avait elle-même reconnu en début d'année que l'AI Act dans sa version actuelle ne prohibe pas les systèmes générant des contenus pédopornographiques (CSAM) ou des deepfakes sexuellement explicites de personnes réelles. Un angle mort juridique que les eurodéputés cherchent désormais à combler par voie d'amendement.

Le catalyseur de ce tournant législatif est le chatbot Grok, développé par xAI d'Elon Musk, qui a été cité en exemple des dérives possibles lorsqu'une plateforme d'IA ne bloque pas suffisamment les sorties sexualisant des images de personnes réelles — y compris des mineurs. La communiqué de presse conjoint des deux commissions parlementaires souligne explicitement ce cas comme illustration du danger que représentent ces outils lorsqu'ils ne sont pas encadrés.

Si les amendements sont adoptés dans leur forme proposée, l'interdiction des nudifier systems deviendrait l'une des premières mesures concrètes de durcissement de l'AI Act depuis son entrée en vigueur. Elle marquerait également un signal fort de Bruxelles à l'encontre des grandes plateformes d'IA jugées insuffisamment responsables dans la modération de leurs contenus générés.

Impact France/UE

Le Parlement européen s'apprête à modifier l'AI Act pour interdire explicitement les applications de nudification IA, avec une obligation de conformité pour tout acteur opérant sur le marché européen.

💬 Le point de vue du dev

101 voix contre 9, ça dit tout sur le degré de controverse. Ce qui me frappe, c'est que l'AI Act vient juste d'entrer en vigueur et on doit déjà le rapiécer parce que Grok a joué les accélérateurs sur un sujet qu'on savait problématique depuis des années. Bon, l'interdiction explicite était clairement nécessaire, mais ça illustre bien à quel point la régulation court après la réalité du terrain.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Le Big Data 

Grok interdit en Europe : l’UE veut bannir les IA qui déshabillent les femmes

Suite au scandale Grok (xAI), qui a permis la génération d'images intimes non consenties de femmes et de mineurs via de simples prompts, l'UE a franchi un cap législatif : le 18 mars 2026, la commission LIBE a approuvé un amendement à l'AI Omnibus interdisant les systèmes capables de produire des deepfakes sexuels réalistes de personnes identifiables sans leur consentement. Cette approche inédite cible les outils eux-mêmes (et non plus seulement les contenus diffusés), imposant des contraintes techniques aux développeurs et plateformes. Le texte, validé politiquement le 11 mars par le Parlement et le Conseil, doit encore passer un vote en séance plénière avant d'entrer en vigueur.

UEL'amendement à l'AI Omnibus approuvé par la commission LIBE le 18 mars 2026 impose des contraintes techniques directes aux développeurs et plateformes IA opérant en Europe, les obligeant à empêcher techniquement la génération de deepfakes sexuels non consentis de personnes identifiables.

💬 C'est la première fois qu'on cible l'outil plutôt que le contenu, et c'est un vrai changement de logique. Grok a servi de déclencheur, mais l'amendement va bien au-delà d'xAI : n'importe quelle plateforme qui peut générer ce genre d'images devra l'empêcher techniquement, pas juste le modérer après coup. Reste à voir comment on définit "deepfake réaliste de personne identifiable" en pratique, parce que là, ça va faire débat.

RégulationReglementation
1 source
Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok
2Le Monde Pixels 

Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok

Le Parlement européen a adopté une résolution interdisant la création et la diffusion d'images pornographiques générées par intelligence artificielle sans le consentement des personnes représentées. Ce vote intervient dans un contexte de multiplication des scandales liés aux outils de «nudification» automatisée, dont Grok, le chatbot d'xAI appartenant à Elon Musk, accusé début 2025 de produire facilement des contenus sexuels explicites, y compris à partir de photos anodines de personnes réelles. La mesure vise à combler un vide juridique flagrant : des millions de femmes ont déjà été victimes de deepfakes pornographiques non consentis, avec des conséquences graves sur leur vie professionnelle et personnelle. En ciblant explicitement les contenus générés par IA, le Parlement européen entend responsabiliser les plateformes qui hébergent ces outils et durcir les sanctions contre leurs auteurs, dans le prolongement de la directive sur les violences faites aux femmes adoptée en 2024. Cette décision s'inscrit dans une volonté plus large de l'Union européenne d'encadrer les dérives de l'IA générative, après l'AI Act entré en vigueur en 2024. La mobilisation des associations féministes — dont la manifestation de Séoul en août 2024 contre la nudification — a pesé dans le débat. La prochaine étape sera la transposition effective dans les législations nationales des Vingt-Sept.

UELa transposition de cette résolution dans les législations nationales des Vingt-Sept obligera les plateformes opérant en Europe à retirer les deepfakes pornographiques non consentis et à renforcer leur modération sous peine de sanctions renforcées.

RégulationReglementation
1 source
3Siècle Digital 

L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement

L'Union européenne envisage d'interdire les outils d'IA capables de déshabiller des personnes sans leur consentement. Les eurodéputés à Bruxelles souhaitent encadrer plus strictement la création de contenus sexuels non-consentis générés à partir d'images réelles. Cette initiative s'inscrit dans une mobilisation politique croissante face aux dérives de l'intelligence artificielle.

UEUne directive européenne interdisant les outils de deepfake non-consentis aurait un impact direct sur les plateformes et développeurs opérant en France et dans l'UE.

RégulationReglementation
1 source
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
4The Verge AI 

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Le Parlement européen a voté à une large majorité pour repousser les délais de conformité de l'AI Act, la loi phare de l'Union européenne sur la régulation de l'intelligence artificielle. Les développeurs de systèmes d'IA dits "à haut risque" — ceux présentant un risque sérieux pour la santé, la sécurité ou les droits fondamentaux — auront jusqu'en décembre 2027 pour se conformer, contre une échéance initiale plus proche. Les entreprises dont les systèmes relèvent de réglementations sectorielles existantes, comme les jouets ou les dispositifs médicaux, bénéficieront d'un délai encore plus long, fixé à août 2028. Parallèlement, le Parlement a approuvé l'interdiction des applications dites "nudify", qui génèrent des images dénudées non consenties à partir de photos de personnes réelles. Ce report soulage une industrie tech qui dénonçait des délais irréalistes pour adapter des systèmes complexes aux exigences de l'AI Act. Pour les développeurs d'IA médicale, industrielle ou éducative, ce gain de temps est concret : il leur permet de mettre en place les audits, la documentation et les processus de conformité requis. L'interdiction des nudify apps, elle, répond à une demande croissante de protection contre les deepfakes non consentis, qui touchent majoritairement des femmes et alimentent le harcèlement en ligne. L'AI Act, adopté en 2024, est la première grande législation mondiale à encadrer l'IA par niveau de risque. Sa mise en œuvre progressive a d'emblée suscité des tensions entre ambition régulatoire et réalité industrielle, notamment face à la montée en puissance de modèles comme ceux d'OpenAI ou Google. Ce vote reflète un ajustement pragmatique, mais aussi la pression des lobbys tech européens et américains, alors que l'Europe cherche à ne pas freiner son écosystème IA face à la concurrence internationale.

UELes entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

RégulationReglementation
1 source