Aller au contenu principal
RégulationAWS ML Blog19min

Conformité au règlement européen sur l'IA pour l'affinage de LLM sur Amazon SageMaker

Résumé IASource uniqueImpact UE
Source originale ↗·

Depuis le 2 août 2025, l'AI Act européen impose aux organisations qui affinent des grands modèles de langage (LLM) de mesurer précisément la quantité de calcul consommée, exprimée en opérations virgule flottante (FLOPs). L'enjeu est réglementaire : selon le volume de calcul utilisé, une entreprise peut basculer du statut d'utilisateur en aval, qui exploite un modèle existant, à celui de fournisseur de modèle à usage général (GPAI), avec des obligations légales beaucoup plus lourdes. Amazon Web Services a publié en réponse un outil open source, le Fine-Tuning FLOPs Meter, conçu pour s'intégrer directement dans les pipelines Amazon SageMaker AI. Le seuil de référence, dit "règle du tiers", est fixé à 3,3 x 10²² FLOPs par défaut, c'est-à-dire lorsque le calcul de pré-entraînement du modèle de base est inconnu ou inférieur à 10²³ FLOPs. Pour les modèles dont le pré-entraînement dépasse 10²³ FLOPs et dont le chiffre est documenté, le seuil devient 30 % du calcul original. À titre d'exemple concret, affiner Llama-3-70B, dont le pré-entraînement est estimé à au moins 1,5 x 10²⁴ FLOPs, déclenche un seuil de 4,5 x 10²³ FLOPs avant de devenir fournisseur GPAI.

Ce changement réglementaire touche directement les équipes data et ML des entreprises européennes qui personnalisent des modèles pour des usages sectoriels, qu'il s'agisse de finance, de santé ou de services juridiques. Franchir le seuil oblige à fournir une documentation détaillée sur l'architecture du modèle, le processus d'entraînement et à respecter l'ensemble des obligations de transparence imposées aux fournisseurs GPAI, sous peine de sanctions. L'outil d'AWS permet de déterminer son statut de conformité avec un seul paramètre de configuration et génère automatiquement les documents d'audit nécessaires. Dans la pratique, la majorité des organisations appliquera le seuil par défaut, car les fournisseurs de modèles comme Meta ou Mistral ne publient pas toujours leurs FLOPs de pré-entraînement avec précision.

L'AI Act, premier cadre réglementaire complet sur l'IA au monde, a progressivement élargi son périmètre depuis son adoption en 2024. La distinction entre utilisateur et fournisseur GPAI est au coeur des débats depuis que l'affinage à grande échelle s'est démocratisé grâce aux techniques comme LoRA ou QLoRA, qui permettent d'adapter des modèles de plusieurs dizaines de milliards de paramètres avec des ressources relativement modestes. Le seuil du tiers repose sur une analyse réglementaire selon laquelle consommer plus d'un tiers du calcul original transforme suffisamment le comportement du modèle pour créer, de fait, un nouveau système avec ses propres risques. Le positionnement d'AWS est stratégique : en intégrant la conformité directement dans son infrastructure managée, le cloud provider réduit la friction pour les entreprises européennes hésitant à adopter le fine-tuning par crainte des obligations légales.

Impact France/UE

Les équipes ML des entreprises européennes qui affinent des LLMs doivent désormais mesurer leurs FLOPs pour déterminer si elles basculent au statut de fournisseur GPAI sous l'AI Act, avec des obligations de documentation et de transparence renforcées sous peine de sanctions.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AI News 

Les défis de gouvernance de l'IA à base d'agents face au règlement européen en 2026

Les agents d'intelligence artificielle capables d'agir de façon autonome, de déplacer des données entre systèmes et de déclencher des décisions sans intervention humaine posent un défi de gouvernance croissant pour les organisations européennes. À partir d'août 2026, l'entrée en vigueur des dispositions d'exécution de l'AI Act de l'Union européenne rendra ce défi juridiquement contraignant. Les articles 9 et 13 du texte imposent aux entreprises utilisant des systèmes d'IA dans des domaines à risque élevé, notamment le traitement de données personnelles ou les opérations financières, de maintenir une gestion des risques continue, documentée et révisable à chaque étape du déploiement, ainsi que de garantir que les sorties des systèmes soient interprétables par leurs utilisateurs. Les manquements à ces obligations exposeront les organisations à des pénalités substantielles. Pour les responsables informatiques, cela signifie concrètement qu'ils doivent être capables de prouver, pièces à l'appui, qu'un agent IA agit de façon sûre et légale. Or, beaucoup d'organisations échouent dès la première étape : elles ne disposent pas d'un registre centralisé de leurs agents en production, ni d'un enregistrement précis de leurs capacités et permissions. Sans traçabilité complète des actions, quand un agent interagit avec d'autres agents dans des architectures multi-agents, la chaîne de responsabilité devient impossible à reconstituer. Des solutions techniques existent, comme le SDK Python Asqav, qui signe cryptographiquement chaque action d'un agent et lie les enregistrements à une chaîne de hachage immuable, rendant toute falsification détectable. L'enjeu dépasse la technique : il touche directement à la capacité des entreprises à démontrer leur conformité réglementaire à tout instant. L'émergence des architectures agentiques complexes, où des systèmes délèguent des tâches à d'autres agents sans supervision humaine directe, a rendu obsolètes les approches traditionnelles de gouvernance logicielle. L'AI Act oblige désormais les entreprises à repenser leurs processus de bout en bout : tout agent doit avoir une identité unique, des permissions documentées, et surtout un mécanisme de révocation rapide, idéalement en quelques secondes, incluant la suppression immédiate des accès API et l'annulation des tâches en attente. La supervision humaine ne peut se limiter à un score de confiance ou à l'affichage d'une requête : les opérateurs doivent disposer d'un contexte suffisant pour intervenir avant qu'une erreur ne se produise. Les fournisseurs tiers d'IA sont également concernés, car leurs systèmes doivent être suffisamment documentés et interprétables pour que les entreprises clientes puissent en garantir un usage conforme à la loi.

UELes entreprises françaises et européennes déployant des agents IA dans des domaines à risque élevé doivent mettre en conformité leurs processus de gouvernance (registre d'agents, traçabilité, révocation) avant l'entrée en vigueur des articles 9 et 13 de l'AI Act en août 2026, sous peine de pénalités substantielles.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
2Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
3Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA
4The Verge AI 

L'UE soutient l'interdiction des apps de nudité et reporte ses règles phares sur l'IA

Le Parlement européen a voté à une large majorité pour repousser les délais de conformité de l'AI Act, la loi phare de l'Union européenne sur la régulation de l'intelligence artificielle. Les développeurs de systèmes d'IA dits "à haut risque" — ceux présentant un risque sérieux pour la santé, la sécurité ou les droits fondamentaux — auront jusqu'en décembre 2027 pour se conformer, contre une échéance initiale plus proche. Les entreprises dont les systèmes relèvent de réglementations sectorielles existantes, comme les jouets ou les dispositifs médicaux, bénéficieront d'un délai encore plus long, fixé à août 2028. Parallèlement, le Parlement a approuvé l'interdiction des applications dites "nudify", qui génèrent des images dénudées non consenties à partir de photos de personnes réelles. Ce report soulage une industrie tech qui dénonçait des délais irréalistes pour adapter des systèmes complexes aux exigences de l'AI Act. Pour les développeurs d'IA médicale, industrielle ou éducative, ce gain de temps est concret : il leur permet de mettre en place les audits, la documentation et les processus de conformité requis. L'interdiction des nudify apps, elle, répond à une demande croissante de protection contre les deepfakes non consentis, qui touchent majoritairement des femmes et alimentent le harcèlement en ligne. L'AI Act, adopté en 2024, est la première grande législation mondiale à encadrer l'IA par niveau de risque. Sa mise en œuvre progressive a d'emblée suscité des tensions entre ambition régulatoire et réalité industrielle, notamment face à la montée en puissance de modèles comme ceux d'OpenAI ou Google. Ce vote reflète un ajustement pragmatique, mais aussi la pression des lobbys tech européens et américains, alors que l'Europe cherche à ne pas freiner son écosystème IA face à la concurrence internationale.

UELes entreprises françaises développant des systèmes d'IA à haut risque (médical, industriel, éducatif) gagnent jusqu'à décembre 2027 pour se conformer à l'AI Act, et jusqu'en août 2028 pour les systèmes couverts par des réglementations sectorielles existantes.

💬 Le report, c'est une bonne nouvelle pour les devs qui bossaient dans le flou total sur les délais. 2027 pour les systèmes à haut risque, ça laisse enfin le temps de faire la conformité sérieusement plutôt qu'à la va-vite. Sur les nudify apps, là pas de débat : l'interdiction était évidente, ça aurait dû arriver bien avant.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour