Aller au contenu principal
Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok
RégulationLe Monde Pixels6sem

Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Parlement européen a adopté une résolution interdisant la création et la diffusion d'images pornographiques générées par intelligence artificielle sans le consentement des personnes représentées. Cette décision fait suite à une série de scandales impliquant des outils de «nudification» automatisée, au premier rang desquels Grok, le chatbot d'xAI appartenant à Elon Musk, accusé début 2025 de produire facilement des contenus sexuels explicites à partir de simples photos de personnes réelles.

La mesure vise à combler un vide juridique considérable : des millions de femmes ont déjà été victimes de deepfakes pornographiques non consentis, avec des répercussions graves sur leur vie professionnelle et personnelle. En ciblant explicitement les contenus générés par IA, le Parlement européen entend responsabiliser les plateformes hébergeant ces outils et durcir les sanctions contre leurs auteurs, dans le prolongement de la directive sur les violences faites aux femmes adoptée en 2024.

Cette résolution s'inscrit dans une stratégie plus large d'encadrement des dérives de l'IA générative par l'Union européenne, après l'AI Act entré en vigueur en 2024. La pression des associations féministes a pesé dans le débat — notamment la manifestation de Séoul en août 2024 contre les pratiques de nudification, qui avait réuni des dizaines de milliers de personnes. Le texte prévoit que les plateformes soient tenues pour coresponsables en cas de diffusion de ces contenus illicites.

La prochaine étape cruciale sera la transposition de ces dispositions dans les législations nationales des Vingt-Sept, un processus qui déterminera l'effectivité réelle des sanctions et la capacité des États membres à poursuivre les auteurs de ces contenus, y compris lorsqu'ils opèrent depuis l'extérieur de l'espace européen.

Impact France/UE

La transposition de cette résolution dans les législations nationales des Vingt-Sept obligera les plateformes opérant en Europe à retirer les deepfakes pornographiques non consentis et à renforcer leur modération sous peine de sanctions renforcées.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
1Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
L’UE bannit les images générées par IA de ses communications officielles
2Siècle Digital 

L’UE bannit les images générées par IA de ses communications officielles

La Commission européenne a décidé d'interdire l'utilisation d'images et de vidéos générées par intelligence artificielle dans ses communications officielles. Thomas Regnier, porte-parole de l'institution, a confirmé à Politico que les visuels mis à disposition des journalistes et utilisés à des fins d'information officielle sont désormais exclusivement d'origine humaine. Cette directive s'applique aux contenus publiés au nom des institutions européennes, qu'il s'agisse de photos, d'illustrations ou de séquences vidéo. La mesure vise à restaurer la confiance du public envers les institutions à une époque où les contenus synthétiques prolifèrent sur le web et où la distinction entre réel et fabriqué devient de plus en plus difficile à établir. Pour une institution dont la crédibilité repose sur la transparence et l'authenticité de ses communications, permettre à des visuels générés par IA de circuler dans des contextes officiels représentait un risque réputationnel significatif. Cette décision envoie aussi un signal politique fort alors que l'UE est précisément en train de mettre en oeuvre l'AI Act, le premier cadre réglementaire mondial sur l'intelligence artificielle. Cette interdiction s'inscrit dans un contexte de méfiance croissante envers les deepfakes et les médias synthétiques, qui ont déjà semé la confusion dans plusieurs campagnes électorales en Europe. La Commission, qui a porté l'AI Act, se devait de montrer l'exemple en matière d'usage responsable. La question de l'extension de cette politique aux agences et organes satellites de l'UE reste ouverte, tout comme celle des outils d'aide à la rédaction, dont le statut demeure pour l'instant moins tranché.

UELa Commission européenne interdit désormais tout visuel généré par IA dans ses communications officielles, une décision contraignante pour toutes les institutions européennes et cohérente avec la mise en œuvre de l'AI Act.

RégulationReglementation
1 source
3Le Big Data 

Grok interdit en Europe : l’UE veut bannir les IA qui déshabillent les femmes

Suite au scandale Grok (xAI), qui a permis la génération d'images intimes non consenties de femmes et de mineurs via de simples prompts, l'UE a franchi un cap législatif : le 18 mars 2026, la commission LIBE a approuvé un amendement à l'AI Omnibus interdisant les systèmes capables de produire des deepfakes sexuels réalistes de personnes identifiables sans leur consentement. Cette approche inédite cible les outils eux-mêmes (et non plus seulement les contenus diffusés), imposant des contraintes techniques aux développeurs et plateformes. Le texte, validé politiquement le 11 mars par le Parlement et le Conseil, doit encore passer un vote en séance plénière avant d'entrer en vigueur.

UEL'amendement à l'AI Omnibus approuvé par la commission LIBE le 18 mars 2026 impose des contraintes techniques directes aux développeurs et plateformes IA opérant en Europe, les obligeant à empêcher techniquement la génération de deepfakes sexuels non consentis de personnes identifiables.

💬 C'est la première fois qu'on cible l'outil plutôt que le contenu, et c'est un vrai changement de logique. Grok a servi de déclencheur, mais l'amendement va bien au-delà d'xAI : n'importe quelle plateforme qui peut générer ce genre d'images devra l'empêcher techniquement, pas juste le modérer après coup. Reste à voir comment on définit "deepfake réaliste de personne identifiable" en pratique, parce que là, ça va faire débat.

RégulationReglementation
1 source
4Siècle Digital 

L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement

L'Union européenne envisage d'interdire les outils d'IA capables de déshabiller des personnes sans leur consentement. Les eurodéputés à Bruxelles souhaitent encadrer plus strictement la création de contenus sexuels non-consentis générés à partir d'images réelles. Cette initiative s'inscrit dans une mobilisation politique croissante face aux dérives de l'intelligence artificielle.

UEUne directive européenne interdisant les outils de deepfake non-consentis aurait un impact direct sur les plateformes et développeurs opérant en France et dans l'UE.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour