L’Union européenne veut interdire les outils d’IA qui dénudent sans consentement
L'Union européenne s'apprête à franchir une nouvelle étape dans la lutte contre les abus liés à l'intelligence artificielle. Les eurodéputés réunis à Bruxelles souhaitent interdire explicitement les outils d'IA capables de générer des images de nudité non consentie à partir de photos de personnes réelles — une pratique connue sous le nom de deepnude. Cette initiative cible directement les applications qui, en quelques secondes, peuvent déshabiller virtuellement n'importe quelle personne à partir d'un simple cliché.
L'enjeu est considérable : ces outils alimentent une forme de violence sexuelle numérique qui touche en majorité des femmes, souvent sans qu'elles en soient informées. Pour les institutions européennes, laisser proliférer ces technologies sans cadre légal revient à tolérer une atteinte grave à la dignité et à l'intégrité des personnes. La démarche s'inscrit dans le prolongement du règlement européen sur l'IA (AI Act), entré en vigueur en 2024, qui classe certains usages comme "à haut risque" ou carrément interdits.
Les parlementaires européens entendent inscrire cette interdiction dans une législation ciblée, distincte des cadres généraux déjà existants. Si les détails techniques du texte n'ont pas encore été finalisés, la direction politique est claire : toute application dont la fonction principale ou dérivée consiste à générer des contenus intimes non consentis devrait être bannie sur le territoire de l'UE. Les plateformes qui hébergent ou distribuent ces outils seraient également visées.
Cette initiative rejoint un mouvement législatif plus large à l'échelle internationale. Le Royaume-Uni et plusieurs États américains ont déjà adopté ou préparent des textes similaires. Pour les défenseurs des droits numériques, la question n'est plus de savoir si ces outils doivent être régulés, mais à quelle vitesse les législateurs peuvent agir face à une technologie dont la diffusion s'accélère.
Une directive européenne interdisant les outils de deepfake non-consentis aurait un impact direct sur les plateformes et développeurs opérant en France et dans l'UE.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



