Aller au contenu principal
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
RégulationThe Verge AI6sem

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Le Parlement européen a approuvé à une large majorité deux mesures importantes concernant la régulation de l'intelligence artificielle : un report des échéances de conformité pour l'AI Act et un soutien à l'interdiction des applications de « nudification ». Ces décisions redessinent le calendrier d'application de la loi phare de l'UE sur l'IA, adoptée en 2024.

Le report concerne en particulier les développeurs de systèmes d'IA à haut risque — ceux jugés susceptibles de porter atteinte à la santé, à la sécurité ou aux droits fondamentaux. L'Union européenne reconnaît ainsi implicitement que l'industrie a besoin de plus de temps pour se conformer, dans un contexte de compétition technologique intense avec les États-Unis et la Chine. Ce signal envoie un message d'équilibre entre ambition réglementaire et pragmatisme économique.

Les nouvelles échéances proposées sont les suivantes : décembre 2027 pour les systèmes d'IA à haut risque dans le cadre général, et août 2028 pour ceux soumis à des règles sectorielles spécifiques (jouets, dispositifs médicaux, etc.). Par ailleurs, les règles imposant le tatouage numérique (watermarking) des contenus générés par IA seraient également repoussées. En parallèle, le Parlement a soutenu l'interdiction explicite des applications de nudification — des outils permettant de générer des images dénudées non consenties à partir de photos réelles.

Ces ajustements illustrent la difficulté de l'UE à concilier protection des droits fondamentaux et compétitivité de son écosystème tech. L'interdiction des apps de nudification répond à une pression croissante des associations de protection des femmes et des mineurs, tandis que le report des délais reflète le lobbying intense des acteurs industriels européens qui craignent d'être désavantagés face à leurs concurrents américains et asiatiques.

Impact France/UE

Les entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le point de vue du dev

Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles
1The Decoder 

L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles

L'Union européenne vient de réviser en profondeur le calendrier d'application de son règlement sur l'intelligence artificielle. Dans le cadre du "Digital Omnibus on AI", les institutions européennes ont décidé de repousser les principales obligations pour les systèmes dits à haut risque, comme ceux utilisés dans le recrutement, la justice ou la santé, à fin 2027, voire 2028 selon les cas. Parallèlement, les exigences imposées aux petites et moyennes entreprises ont été allégées pour réduire la charge administrative jugée disproportionnée. Cette décision soulage à court terme les acteurs industriels qui peinaient à se conformer à un texte perçu comme trop complexe et trop rapide à mettre en oeuvre. Pour les PME en particulier, qui constituent l'essentiel du tissu économique européen, l'assouplissement évite une mise en conformité coûteuse face à des grandes entreprises mieux armées. En contrepartie, certains observateurs y voient un recul de l'ambition régulatrice de Bruxelles face aux pressions du lobbying technologique. Tout n'est pas repoussé : l'obligation d'étiquetage des deepfakes et des contenus générés par IA entre toujours en vigueur en août 2026, et les applications de "nudification", qui permettent de déshabiller numériquement des personnes à leur insu, sont désormais explicitement interdites. Ce compromis reflète la tension persistante entre la volonté européenne de réguler en pionnière et la crainte de freiner l'innovation face à la concurrence américaine et chinoise, dans un contexte où les modèles d'IA se déploient à une vitesse que les législateurs peinent à suivre.

UELe report des obligations de l'AI Act pour les systèmes à haut risque à fin 2027/2028 offre aux entreprises françaises et aux PME européennes un délai supplémentaire pour se mettre en conformité, tout en maintenant l'obligation d'étiquetage des contenus générés par IA dès août 2026.

💬 C'est le texte qui était trop ambitieux sur le mauvais timing, pas les entreprises qui manquaient de bonne volonté. Je ne pleure pas sur le report, les obligations pour les systèmes à haut risque demandaient une maturité technique qu'on n'avait pas encore. Ce qui compte, c'est que l'étiquetage des deepfakes et l'interdiction des apps de nudification passent quand même, parce que ça ne pouvait vraiment pas attendre.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
2Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels
301net 

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels

Le Parlement européen a adopté une résolution visant à reporter certaines échéances clés de l'AI Act, le règlement européen sur l'intelligence artificielle entré en vigueur en août 2024. Les eurodéputés souhaitent notamment décaler l'application de plusieurs obligations pour donner plus de temps aux entreprises et aux États membres de s'y conformer. La chambre propose également d'inscrire dans le texte une interdiction explicite des applications d'IA permettant de générer des deepfakes sexuels non consentis. Ces ajustements ont des conséquences directes pour les développeurs et fournisseurs de systèmes d'IA en Europe : un délai supplémentaire signifie moins de pression immédiate sur la conformité, mais aussi un signal que la mise en œuvre du texte reste complexe. L'interdiction des deepfakes sexuels répond à une demande croissante de protection des victimes — majoritairement des femmes — face à une pratique en forte hausse facilitée par les outils génératifs grand public. L'AI Act est le premier cadre légal mondial complet sur l'IA, fruit de trois ans de négociations entre le Parlement, le Conseil et la Commission européenne. Son déploiement progressif jusqu'en 2026 fait l'objet de tensions entre ambitions réglementaires et compétitivité industrielle, dans un contexte où l'Europe cherche à ne pas décrocher face aux géants américains et chinois de l'IA.

UELe Parlement européen propose de reporter certaines échéances de l'AI Act et d'interdire explicitement les deepfakes sexuels non consentis, modifiant directement le calendrier de conformité pour tous les développeurs et fournisseurs de systèmes d'IA opérant sur le marché européen.

RégulationReglementation
1 source
Wikipédia interdit officiellement la rédaction d’articles par l’IA
4Frandroid 

Wikipédia interdit officiellement la rédaction d’articles par l’IA

La Fondation Wikimedia a officiellement interdit la rédaction d'articles par intelligence artificielle sur l'encyclopédie en ligne Wikipédia. Cette décision marque un tournant dans la politique éditoriale de l'une des plateformes d'information les plus consultées au monde, avec plus de 60 millions d'articles dans 300 langues. La règle s'applique à la création de contenu directement généré par des outils comme ChatGPT ou Claude, même si les détails précis de la politique — notamment les usages auxiliaires autorisés — restent en cours de clarification au sein des différentes communautés de contributeurs. La décision répond à une inquiétude croissante sur la fiabilité du contenu encyclopédique à l'ère des LLMs. Les modèles de langage sont connus pour produire des « hallucinations » — des affirmations fausses présentées avec assurance —, ce qui est particulièrement dangereux sur une plateforme dont des millions de lecteurs, d'étudiants et de journalistes dépendent quotidiennement. Pour Wikimedia, laisser l'IA rédiger librement risquait de polluer silencieusement une base de connaissance construite sur des décennies de travail humain vérifié. La Fondation reconnaît cependant que l'application de cette règle sera techniquement ardue : détecter automatiquement les textes générés par IA reste un problème non résolu, les outils de détection existants produisant de nombreux faux positifs. Ce choix s'inscrit dans un débat plus large qui agite l'ensemble des médias et institutions de savoir — de la presse aux universités — sur la place de l'IA générative dans la production de contenus à vocation informative. Wikipédia choisit clairement le camp de la prudence.

UELa décision s'applique directement aux versions françaises et européennes de Wikipédia, protégeant l'intégrité d'une ressource encyclopédique massivement utilisée par les étudiants, journalistes et institutions de l'UE.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour