Aller au contenu principal
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
RégulationThe Verge AI7sem

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Le Parlement européen a approuvé à une large majorité deux mesures importantes concernant la régulation de l'intelligence artificielle : un report des échéances de conformité pour l'AI Act et un soutien à l'interdiction des applications de « nudification ». Ces décisions redessinent le calendrier d'application de la loi phare de l'UE sur l'IA, adoptée en 2024.

Le report concerne en particulier les développeurs de systèmes d'IA à haut risque — ceux jugés susceptibles de porter atteinte à la santé, à la sécurité ou aux droits fondamentaux. L'Union européenne reconnaît ainsi implicitement que l'industrie a besoin de plus de temps pour se conformer, dans un contexte de compétition technologique intense avec les États-Unis et la Chine. Ce signal envoie un message d'équilibre entre ambition réglementaire et pragmatisme économique.

Les nouvelles échéances proposées sont les suivantes : décembre 2027 pour les systèmes d'IA à haut risque dans le cadre général, et août 2028 pour ceux soumis à des règles sectorielles spécifiques (jouets, dispositifs médicaux, etc.). Par ailleurs, les règles imposant le tatouage numérique (watermarking) des contenus générés par IA seraient également repoussées. En parallèle, le Parlement a soutenu l'interdiction explicite des applications de nudification — des outils permettant de générer des images dénudées non consenties à partir de photos réelles.

Ces ajustements illustrent la difficulté de l'UE à concilier protection des droits fondamentaux et compétitivité de son écosystème tech. L'interdiction des apps de nudification répond à une pression croissante des associations de protection des femmes et des mineurs, tandis que le report des délais reflète le lobbying intense des acteurs industriels européens qui craignent d'être désavantagés face à leurs concurrents américains et asiatiques.

Impact France/UE

Les entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le point de vue du dev

Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles
1The Decoder 

L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles

L'Union européenne vient de réviser en profondeur le calendrier d'application de son règlement sur l'intelligence artificielle. Dans le cadre du "Digital Omnibus on AI", les institutions européennes ont décidé de repousser les principales obligations pour les systèmes dits à haut risque, comme ceux utilisés dans le recrutement, la justice ou la santé, à fin 2027, voire 2028 selon les cas. Parallèlement, les exigences imposées aux petites et moyennes entreprises ont été allégées pour réduire la charge administrative jugée disproportionnée. Cette décision soulage à court terme les acteurs industriels qui peinaient à se conformer à un texte perçu comme trop complexe et trop rapide à mettre en oeuvre. Pour les PME en particulier, qui constituent l'essentiel du tissu économique européen, l'assouplissement évite une mise en conformité coûteuse face à des grandes entreprises mieux armées. En contrepartie, certains observateurs y voient un recul de l'ambition régulatrice de Bruxelles face aux pressions du lobbying technologique. Tout n'est pas repoussé : l'obligation d'étiquetage des deepfakes et des contenus générés par IA entre toujours en vigueur en août 2026, et les applications de "nudification", qui permettent de déshabiller numériquement des personnes à leur insu, sont désormais explicitement interdites. Ce compromis reflète la tension persistante entre la volonté européenne de réguler en pionnière et la crainte de freiner l'innovation face à la concurrence américaine et chinoise, dans un contexte où les modèles d'IA se déploient à une vitesse que les législateurs peinent à suivre.

UELe report des obligations de l'AI Act pour les systèmes à haut risque à fin 2027/2028 offre aux entreprises françaises et aux PME européennes un délai supplémentaire pour se mettre en conformité, tout en maintenant l'obligation d'étiquetage des contenus générés par IA dès août 2026.

💬 C'est le texte qui était trop ambitieux sur le mauvais timing, pas les entreprises qui manquaient de bonne volonté. Je ne pleure pas sur le report, les obligations pour les systèmes à haut risque demandaient une maturité technique qu'on n'avait pas encore. Ce qui compte, c'est que l'étiquetage des deepfakes et l'interdiction des apps de nudification passent quand même, parce que ça ne pouvait vraiment pas attendre.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
2Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels
301net 

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels

Le Parlement européen a adopté une résolution visant à reporter certaines échéances clés de l'AI Act, le règlement européen sur l'intelligence artificielle entré en vigueur en août 2024. Les eurodéputés souhaitent notamment décaler l'application de plusieurs obligations pour donner plus de temps aux entreprises et aux États membres de s'y conformer. La chambre propose également d'inscrire dans le texte une interdiction explicite des applications d'IA permettant de générer des deepfakes sexuels non consentis. Ces ajustements ont des conséquences directes pour les développeurs et fournisseurs de systèmes d'IA en Europe : un délai supplémentaire signifie moins de pression immédiate sur la conformité, mais aussi un signal que la mise en œuvre du texte reste complexe. L'interdiction des deepfakes sexuels répond à une demande croissante de protection des victimes — majoritairement des femmes — face à une pratique en forte hausse facilitée par les outils génératifs grand public. L'AI Act est le premier cadre légal mondial complet sur l'IA, fruit de trois ans de négociations entre le Parlement, le Conseil et la Commission européenne. Son déploiement progressif jusqu'en 2026 fait l'objet de tensions entre ambitions réglementaires et compétitivité industrielle, dans un contexte où l'Europe cherche à ne pas décrocher face aux géants américains et chinois de l'IA.

UELe Parlement européen propose de reporter certaines échéances de l'AI Act et d'interdire explicitement les deepfakes sexuels non consentis, modifiant directement le calendrier de conformité pour tous les développeurs et fournisseurs de systèmes d'IA opérant sur le marché européen.

RégulationReglementation
1 source
Conformité au règlement européen sur l'IA pour l'affinage de LLM sur Amazon SageMaker
4AWS ML Blog 

Conformité au règlement européen sur l'IA pour l'affinage de LLM sur Amazon SageMaker

Depuis le 2 août 2025, l'AI Act européen impose aux organisations qui affinent des grands modèles de langage (LLM) de mesurer précisément la quantité de calcul consommée, exprimée en opérations virgule flottante (FLOPs). L'enjeu est réglementaire : selon le volume de calcul utilisé, une entreprise peut basculer du statut d'utilisateur en aval, qui exploite un modèle existant, à celui de fournisseur de modèle à usage général (GPAI), avec des obligations légales beaucoup plus lourdes. Amazon Web Services a publié en réponse un outil open source, le Fine-Tuning FLOPs Meter, conçu pour s'intégrer directement dans les pipelines Amazon SageMaker AI. Le seuil de référence, dit "règle du tiers", est fixé à 3,3 x 10²² FLOPs par défaut, c'est-à-dire lorsque le calcul de pré-entraînement du modèle de base est inconnu ou inférieur à 10²³ FLOPs. Pour les modèles dont le pré-entraînement dépasse 10²³ FLOPs et dont le chiffre est documenté, le seuil devient 30 % du calcul original. À titre d'exemple concret, affiner Llama-3-70B, dont le pré-entraînement est estimé à au moins 1,5 x 10²⁴ FLOPs, déclenche un seuil de 4,5 x 10²³ FLOPs avant de devenir fournisseur GPAI. Ce changement réglementaire touche directement les équipes data et ML des entreprises européennes qui personnalisent des modèles pour des usages sectoriels, qu'il s'agisse de finance, de santé ou de services juridiques. Franchir le seuil oblige à fournir une documentation détaillée sur l'architecture du modèle, le processus d'entraînement et à respecter l'ensemble des obligations de transparence imposées aux fournisseurs GPAI, sous peine de sanctions. L'outil d'AWS permet de déterminer son statut de conformité avec un seul paramètre de configuration et génère automatiquement les documents d'audit nécessaires. Dans la pratique, la majorité des organisations appliquera le seuil par défaut, car les fournisseurs de modèles comme Meta ou Mistral ne publient pas toujours leurs FLOPs de pré-entraînement avec précision. L'AI Act, premier cadre réglementaire complet sur l'IA au monde, a progressivement élargi son périmètre depuis son adoption en 2024. La distinction entre utilisateur et fournisseur GPAI est au coeur des débats depuis que l'affinage à grande échelle s'est démocratisé grâce aux techniques comme LoRA ou QLoRA, qui permettent d'adapter des modèles de plusieurs dizaines de milliards de paramètres avec des ressources relativement modestes. Le seuil du tiers repose sur une analyse réglementaire selon laquelle consommer plus d'un tiers du calcul original transforme suffisamment le comportement du modèle pour créer, de fait, un nouveau système avec ses propres risques. Le positionnement d'AWS est stratégique : en intégrant la conformité directement dans son infrastructure managée, le cloud provider réduit la friction pour les entreprises européennes hésitant à adopter le fine-tuning par crainte des obligations légales.

UELes équipes ML des entreprises européennes qui affinent des LLMs doivent désormais mesurer leurs FLOPs pour déterminer si elles basculent au statut de fournisseur GPAI sous l'AI Act, avec des obligations de documentation et de transparence renforcées sous peine de sanctions.

💬 C'est le genre de truc qui va faire peur à plein d'équipes ML alors que la plupart n'ont rien à craindre : affiner un Llama-70B en LoRA sur quelques epochs, tu es encore très loin du seuil. Ce qui est malin chez AWS, c'est d'intégrer la conformité dans leur infra avant que les équipes légales des boîtes européennes leur bloquent le fine-tuning par précaution. Reste que si Meta ne publie pas ses FLOPs de pré-entraînement proprement, tout le monde travaille avec un seuil par défaut un peu arbitraire.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour