Aller au contenu principal
RégulationSiècle Digital6sem

L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement

Résumé IASource uniqueImpact UE
Source originale ↗·

L'Union européenne s'apprête à franchir une nouvelle étape dans la lutte contre les abus liés à l'intelligence artificielle. Les eurodéputés réunis à Bruxelles souhaitent interdire explicitement les outils d'IA capables de générer des images de nudité non consentie à partir de photos de personnes réelles — une pratique connue sous le nom de deepnude. Cette initiative cible directement les applications qui, en quelques secondes, peuvent déshabiller virtuellement n'importe quelle personne à partir d'un simple cliché.

L'enjeu est considérable : ces outils alimentent une forme de violence sexuelle numérique qui touche en majorité des femmes, souvent sans qu'elles en soient informées. Pour les institutions européennes, laisser proliférer ces technologies sans cadre légal revient à tolérer une atteinte grave à la dignité et à l'intégrité des personnes. La démarche s'inscrit dans le prolongement du règlement européen sur l'IA (AI Act), entré en vigueur en 2024, qui classe certains usages comme "à haut risque" ou carrément interdits.

Les parlementaires européens entendent inscrire cette interdiction dans une législation ciblée, distincte des cadres généraux déjà existants. Si les détails techniques du texte n'ont pas encore été finalisés, la direction politique est claire : toute application dont la fonction principale ou dérivée consiste à générer des contenus intimes non consentis devrait être bannie sur le territoire de l'UE. Les plateformes qui hébergent ou distribuent ces outils seraient également visées.

Cette initiative rejoint un mouvement législatif plus large à l'échelle internationale. Le Royaume-Uni et plusieurs États américains ont déjà adopté ou préparent des textes similaires. Pour les défenseurs des droits numériques, la question n'est plus de savoir si ces outils doivent être régulés, mais à quelle vitesse les législateurs peuvent agir face à une technologie dont la diffusion s'accélère.

Impact France/UE

Une directive européenne interdisant les outils de deepfake non-consentis aurait un impact direct sur les plateformes et développeurs opérant en France et dans l'UE.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Le Big Data 

Grok interdit en Europe : l’UE veut bannir les IA qui déshabillent les femmes

Suite au scandale Grok (xAI), qui a permis la génération d'images intimes non consenties de femmes et de mineurs via de simples prompts, l'UE a franchi un cap législatif : le 18 mars 2026, la commission LIBE a approuvé un amendement à l'AI Omnibus interdisant les systèmes capables de produire des deepfakes sexuels réalistes de personnes identifiables sans leur consentement. Cette approche inédite cible les outils eux-mêmes (et non plus seulement les contenus diffusés), imposant des contraintes techniques aux développeurs et plateformes. Le texte, validé politiquement le 11 mars par le Parlement et le Conseil, doit encore passer un vote en séance plénière avant d'entrer en vigueur.

UEL'amendement à l'AI Omnibus approuvé par la commission LIBE le 18 mars 2026 impose des contraintes techniques directes aux développeurs et plateformes IA opérant en Europe, les obligeant à empêcher techniquement la génération de deepfakes sexuels non consentis de personnes identifiables.

💬 C'est la première fois qu'on cible l'outil plutôt que le contenu, et c'est un vrai changement de logique. Grok a servi de déclencheur, mais l'amendement va bien au-delà d'xAI : n'importe quelle plateforme qui peut générer ce genre d'images devra l'empêcher techniquement, pas juste le modérer après coup. Reste à voir comment on définit "deepfake réaliste de personne identifiable" en pratique, parce que là, ça va faire débat.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
2Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
3Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source
Le Parlement européen veut obliger les IA à révéler les œuvres utilisées pour leur entraînement
4Siècle Digital 

Le Parlement européen veut obliger les IA à révéler les œuvres utilisées pour leur entraînement

Le Parlement européen souhaite imposer aux entreprises d'IA l'obligation de divulguer les œuvres (livres, images, musiques) utilisées pour entraîner leurs modèles génératifs. Cette mesure vise à protéger les créateurs, souvent ni informés ni rémunérés lorsque leurs œuvres sont aspirées en masse. Le débat s'inscrit dans un contexte plus large de régulation de l'IA en Europe face aux inquiétudes des industries culturelles.

UECette obligation de transparence imposée par le Parlement européen protégerait directement les créateurs français et européens et contraindrait des acteurs comme Mistral à documenter précisément les œuvres utilisées pour entraîner leurs modèles génératifs.

RégulationReglementation
1 source