Aller au contenu principal
AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels
Régulation01net6sem

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Parlement européen a voté en faveur du report de certaines dispositions clés de l'AI Act, la législation phare de l'Union européenne encadrant l'intelligence artificielle. Parallèlement, les eurodéputés proposent d'interdire explicitement les applications d'IA capables de générer des deepfakes sexuels non consentis.

Ce double mouvement illustre les tensions persistantes autour de la mise en œuvre du règlement. D'un côté, la pression industrielle pousse à desserrer le calendrier d'application pour laisser davantage de temps aux entreprises de se conformer. De l'autre, l'urgence sociale autour des abus liés aux deepfakes — notamment à caractère sexuel — impose une réponse législative rapide et sans ambiguïté.

Le Parlement agit ici en tant que co-législateur, aux côtés de la Commission européenne et du Conseil de l'UE. Le vote en faveur du report cible des échéances clés du texte adopté en 2024, sans remettre en cause l'architecture générale de la loi. L'interdiction des IA générant des contenus sexuels non consentis s'inscrit dans une tendance plus large de durcissement des règles sur les usages les plus préjudiciables de l'IA générative.

Si ces amendements sont confirmés, ils modifieraient le calendrier d'entrée en vigueur de certaines obligations — un enjeu crucial pour les acteurs du secteur qui doivent planifier leur mise en conformité. La question de l'équilibre entre compétitivité européenne et protection des citoyens reste au cœur des débats à Bruxelles.

Impact France/UE

Le Parlement européen propose de reporter certaines échéances de l'AI Act et d'interdire explicitement les deepfakes sexuels non consentis, modifiant directement le calendrier de conformité pour tous les développeurs et fournisseurs de systèmes d'IA opérant sur le marché européen.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
1Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
2The Verge AI 

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Le Parlement européen a voté à une large majorité pour repousser les délais de conformité de l'AI Act, la loi phare de l'Union européenne sur la régulation de l'intelligence artificielle. Les développeurs de systèmes d'IA dits "à haut risque" — ceux présentant un risque sérieux pour la santé, la sécurité ou les droits fondamentaux — auront jusqu'en décembre 2027 pour se conformer, contre une échéance initiale plus proche. Les entreprises dont les systèmes relèvent de réglementations sectorielles existantes, comme les jouets ou les dispositifs médicaux, bénéficieront d'un délai encore plus long, fixé à août 2028. Parallèlement, le Parlement a approuvé l'interdiction des applications dites "nudify", qui génèrent des images dénudées non consenties à partir de photos de personnes réelles. Ce report soulage une industrie tech qui dénonçait des délais irréalistes pour adapter des systèmes complexes aux exigences de l'AI Act. Pour les développeurs d'IA médicale, industrielle ou éducative, ce gain de temps est concret : il leur permet de mettre en place les audits, la documentation et les processus de conformité requis. L'interdiction des nudify apps, elle, répond à une demande croissante de protection contre les deepfakes non consentis, qui touchent majoritairement des femmes et alimentent le harcèlement en ligne. L'AI Act, adopté en 2024, est la première grande législation mondiale à encadrer l'IA par niveau de risque. Sa mise en œuvre progressive a d'emblée suscité des tensions entre ambition régulatoire et réalité industrielle, notamment face à la montée en puissance de modèles comme ceux d'OpenAI ou Google. Ce vote reflète un ajustement pragmatique, mais aussi la pression des lobbys tech européens et américains, alors que l'Europe cherche à ne pas freiner son écosystème IA face à la concurrence internationale.

UELes entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

RégulationReglementation
1 source
☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques
3Next INpact 

☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques

Des eurodéputés des commissions du marché intérieur et des libertés civiles ont voté pour reporter l'application des règles de l'AI Act sur les systèmes d'IA à haut risque (biométrie, infrastructures critiques, éducation) du 2 août 2026 au 2 décembre 2027, invoquant le retard dans la finalisation des normes. Pour certains systèmes couverts par la législation sectorielle de sécurité, la date serait même repoussée au 2 août 2028. Ces propositions doivent encore être approuvées en plénière le 26 mars, puis négociées avec le Conseil européen.

UELe report de l'application de l'AI Act sur les systèmes à haut risque jusqu'en décembre 2027 (voire août 2028) prolonge le délai de mise en conformité pour les entreprises françaises et européennes opérant dans les secteurs de la biométrie, des infrastructures critiques et de l'éducation.

RégulationReglementation
1 source
Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok
4Le Monde Pixels 

Le Parlement européen interdit les images pornographiques générées par IA, après les polémiques contre Grok

Le Parlement européen a adopté une résolution interdisant la création et la diffusion d'images pornographiques générées par intelligence artificielle sans le consentement des personnes représentées. Ce vote intervient dans un contexte de multiplication des scandales liés aux outils de «nudification» automatisée, dont Grok, le chatbot d'xAI appartenant à Elon Musk, accusé début 2025 de produire facilement des contenus sexuels explicites, y compris à partir de photos anodines de personnes réelles. La mesure vise à combler un vide juridique flagrant : des millions de femmes ont déjà été victimes de deepfakes pornographiques non consentis, avec des conséquences graves sur leur vie professionnelle et personnelle. En ciblant explicitement les contenus générés par IA, le Parlement européen entend responsabiliser les plateformes qui hébergent ces outils et durcir les sanctions contre leurs auteurs, dans le prolongement de la directive sur les violences faites aux femmes adoptée en 2024. Cette décision s'inscrit dans une volonté plus large de l'Union européenne d'encadrer les dérives de l'IA générative, après l'AI Act entré en vigueur en 2024. La mobilisation des associations féministes — dont la manifestation de Séoul en août 2024 contre la nudification — a pesé dans le débat. La prochaine étape sera la transposition effective dans les législations nationales des Vingt-Sept.

UELa transposition de cette résolution dans les législations nationales des Vingt-Sept obligera les plateformes opérant en Europe à retirer les deepfakes pornographiques non consentis et à renforcer leur modération sous peine de sanctions renforcées.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour