Aller au contenu principal
RégulationNext INpact1h

AI Act : l’Union européenne accorde un répit aux industriels

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Le Parlement européen et le Conseil de l'UE ont conclu le 7 mai 2026 un accord sur l'omnibus numérique proposé par la Commission européenne, qui modifie en profondeur le calendrier de l'AI Act. Les systèmes d'IA déployés dans des domaines à haut risque, biométrie, infrastructures critiques, éducation, emploi, contrôle aux frontières ou encore migration, ne seront soumis aux nouvelles obligations qu'à compter du 2 décembre 2027, soit seize mois de délai supplémentaire par rapport à l'échéance initiale du 2 août 2026. Pour les systèmes embarqués dans des produits grand public comme des jouets ou des ascenseurs, la date limite est repoussée au 2 août 2028. En parallèle, l'accord assouplit la charge administrative : les avantages jusque-là réservés aux PME s'étendent aux entreprises de taille intermédiaire, des « bacs à sable » réglementaires permettront de tester les solutions avant mise sur le marché, et les doublons avec d'autres législations européennes sur la sécurité des produits ont été clarifiés. En revanche, les protections contre les deepfakes non consensuels sont renforcées : les systèmes IA générant du contenu sexuel explicite sans consentement ou des images sexualisées d'enfants seront interdits à la commercialisation, avec une mise en conformité requise avant le 2 décembre 2026.

Ces reports ne sont pas anodins pour les entreprises technologiques européennes qui peinaient à absorber la complexité réglementaire de l'AI Act tout en restant compétitives face à des acteurs américains et chinois évoluant dans des cadres nettement plus permissifs. Pour les industriels, le délai supplémentaire représente une fenêtre concrète pour adapter leurs systèmes, former leurs équipes et attendre que les normes techniques d'accompagnement soient effectivement disponibles, un point que la Commission reconnaît explicitement. La vice-présidente Henna Virkkunen, chargée de la Souveraineté technologique, a présenté l'accord comme un équilibre entre innovation et sécurité, un discours qui tranche avec les critiques de certaines organisations de surveillance des lobbies, qui dès le début de l'année dénonçaient l'influence d'« oligarques de la tech » sur le processus législatif.

La pression industrielle sur Bruxelles était intense : le 4 mai, quatre jours seulement avant l'accord, Airbus, Mistral AI, Nokia et ASML avaient co-signé une lettre ouverte déplorant des règles « étouffantes, inutilement complexes et souvent redondantes ». L'AI Act, entré en application en février 2025 avec l'ambition de définir un standard mondial pour une IA digne de confiance, se retrouve ainsi confronté à la même tension que le RGPD en son temps : entre l'ambition normative européenne et les contraintes pratiques d'une industrie qui ne veut pas perdre le rythme face à la concurrence internationale. Les prochains mois diront si ces aménagements suffisent à réconcilier les deux camps, ou si de nouveaux reculs se profilent.

Impact France/UE

Les entreprises françaises et européennes bénéficient de seize mois supplémentaires pour mettre en conformité leurs systèmes IA à haut risque avec l'AI Act, un délai directement réclamé par Mistral AI et Airbus dans une lettre ouverte du 4 mai 2026.

💬 Le point de vue du dev

Seize mois de délai, c'est l'aveu que le calendrier était irréaliste. Mistral et Airbus n'avaient pas tort de sonner l'alarme, pas sur le principe mais sur le rythme : mettre des équipes en conformité avec des normes techniques qui n'existent pas encore, c'est juste impossible. La fermeté sur les deepfakes non consensuels au 2 décembre 2026 sauve un peu la mise.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi
1Next INpact 

Entraînement des IA et droit d’auteur : l’industrie culturelle veut l’adoption rapide de la loi

Le 8 avril 2026, le Sénat français adoptait à l'unanimité une proposition de loi instaurant une présomption d'exploitation des contenus culturels par les fournisseurs d'intelligence artificielle. Portée par la sénatrice Agnès Evren (LR), la loi renverse la charge de la preuve : ce n'est plus au créateur de démontrer que son œuvre a été utilisée pour entraîner un modèle d'IA, mais à l'entreprise d'IA de prouver qu'elle ne l'a pas fait. Le texte attend désormais son inscription à l'ordre du jour de l'Assemblée nationale. Pour accélérer le processus, 81 organisations culturelles et de l'information, dont la SACEM, la SCAM, l'ADAMI et le SNEP, ont publié une lettre ouverte appelant les députés à examiner rapidement la proposition. Ces acteurs demandent également la création d'un marché de licences volontaires qui permettrait une rémunération négociée des ayants droit. L'enjeu est considérable pour des secteurs qui voient leurs œuvres aspirées massivement par des entreprises technologiques sans contrepartie financière ni consentement préalable. La présomption légale offrirait à l'industrie culturelle un levier juridique concret face à des acteurs comme OpenAI ou Google, régulièrement visés par des plaintes pour violation du droit d'auteur. Pour les organisations signataires, l'objectif n'est pas le procès systématique mais la création des conditions d'un vrai rapport de force : forcer les entreprises d'IA à venir négocier, plutôt que d'ignorer les créateurs. Un marché de licences structuré garantirait à la fois la compétitivité de la presse et des industries créatives, et offrirait aux modèles d'IA une sécurité juridique présentée comme un avantage concurrentiel. Le passage du texte à l'Assemblée nationale est toutefois loin d'être acquis. Le gouvernement a émis des réserves importantes : la ministre déléguée chargée du numérique, Anne Le Hénanff, a averti que la présomption d'exploitation exposerait l'ensemble des acteurs économiques utilisant de l'IA, des start-up aux entreprises du CAC 40, à un risque de contentieux « dévastateur ». La France se situe ainsi à contre-courant de la tendance mondiale : au Royaume-Uni, le gouvernement avait au contraire envisagé une exception au droit d'auteur autorisant l'entraînement commercial des modèles sans permission préalable, avant de suspendre le projet sous pression des artistes. À l'échelle européenne, le débat sur l'équilibre entre innovation et droits des créateurs reste ouvert, et l'issue française pourrait peser sur la norme continentale.

UESi adoptée par l'Assemblée nationale, cette loi française renversant la charge de la preuve sur l'entraînement des IA pourrait établir un précédent réglementaire européen et contraindre les fournisseurs d'IA opérant en France à négocier des licences avec les ayants droit culturels.

💬 Renverser la charge de la preuve, c'est le seul levier qui avait du sens dans ce bras de fer. Les créateurs ne peuvent pas prouver ce qui se passe dans les pipelines d'entraînement de Google ou OpenAI, mais les boîtes d'IA, elles, peuvent vérifier leurs données sources, et c'est exactement ça qui force la négociation. Reste à voir si l'Assemblée suit, ou si les lobbies tech ont eu le temps de faire leur travail.

RégulationReglementation
1 source
☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
2Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
3Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source
Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence
4Le Big Data 

Sauver la France et l’Europe face à l’IA : Mistral AI pousse 22 mesures d’urgence

Mistral AI, la licorne française valorisée 11,7 milliards d'euros, a publié un document détaillant 22 mesures d'urgence pour permettre à l'Europe de ne pas se laisser distancer par les États-Unis et la Chine dans la course à l'intelligence artificielle. Parmi les propositions phares figure la création d'une "AI blue card", un titre de séjour simplifié inspiré de la carte bleue européenne, destiné à faciliter l'installation de chercheurs et développeurs étrangers sur le continent. L'entreprise appelle également à instaurer une préférence européenne dans les marchés publics, à introduire des incitations fiscales pour l'adoption d'infrastructures locales, et à centraliser les oeuvres du domaine public afin d'alimenter l'entraînement des modèles d'IA sans dépendre des plateformes étrangères. Pour donner corps à sa vision, Mistral AI a levé 830 millions de dollars de dette, destinés notamment à la construction d'un centre de données en France, avec un objectif de plus d'un milliard d'euros de chiffre d'affaires d'ici 2026. Ces propositions s'attaquent à un déséquilibre structurel documenté : sur 1 400 milliards de dollars investis dans le numérique à l'échelle mondiale, 80 % sont captés par les États-Unis. L'Europe dispose des talents et d'une capacité de financement, mais peine à organiser un marché cohérent qui permette à ses acteurs de rivaliser. Si les mesures proposées par Mistral étaient adoptées, elles changeraient concrètement les règles du jeu pour les entreprises et administrations européennes, qui seraient incitées à privilégier des solutions locales plutôt que de s'appuyer sur AWS, Azure ou Google Cloud. Pour les chercheurs étrangers, la "AI blue card" représenterait un signal fort que l'Europe entend sérieusement concurrencer la Silicon Valley en matière d'attractivité. Ces propositions s'inscrivent dans un contexte de prise de conscience accélérée sur la souveraineté technologique en Europe. OpenAI elle-même a publié récemment 13 pages de recommandations sur l'encadrement de l'automatisation, signe que les grands acteurs cherchent à peser sur les débats réglementaires avant que les gouvernements ne tranchent. Mistral, fondée en 2023 par d'anciens chercheurs de DeepMind et Meta, s'est rapidement imposée comme le champion européen de l'IA générative, avec des modèles open source compétitifs face aux offres américaines. En publiant ce plan en 22 points, la startup sort d'une posture purement technique pour entrer dans le débat politique et industriel, à un moment où la Commission européenne et les États membres cherchent encore leur doctrine face à la montée en puissance des grands modèles. Les prochains mois seront décisifs : si ces mesures trouvent un écho à Bruxelles ou à Paris, elles pourraient redéfinir les conditions dans lesquelles se développe l'IA en Europe.

UEMistral AI, licorne française, propose 22 mesures concrètes, préférence européenne dans les marchés publics, 'AI blue card' pour les talents étrangers, incitations fiscales pour l'infrastructure locale, qui pourraient redéfinir les règles du jeu pour les entreprises et administrations françaises et européennes.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour