AI Act : l’Union européenne accorde un répit aux industriels
Le Parlement européen et le Conseil de l'UE ont conclu le 7 mai 2026 un accord sur l'omnibus numérique proposé par la Commission européenne, qui modifie en profondeur le calendrier de l'AI Act. Les systèmes d'IA déployés dans des domaines à haut risque, biométrie, infrastructures critiques, éducation, emploi, contrôle aux frontières ou encore migration, ne seront soumis aux nouvelles obligations qu'à compter du 2 décembre 2027, soit seize mois de délai supplémentaire par rapport à l'échéance initiale du 2 août 2026. Pour les systèmes embarqués dans des produits grand public comme des jouets ou des ascenseurs, la date limite est repoussée au 2 août 2028. En parallèle, l'accord assouplit la charge administrative : les avantages jusque-là réservés aux PME s'étendent aux entreprises de taille intermédiaire, des « bacs à sable » réglementaires permettront de tester les solutions avant mise sur le marché, et les doublons avec d'autres législations européennes sur la sécurité des produits ont été clarifiés. En revanche, les protections contre les deepfakes non consensuels sont renforcées : les systèmes IA générant du contenu sexuel explicite sans consentement ou des images sexualisées d'enfants seront interdits à la commercialisation, avec une mise en conformité requise avant le 2 décembre 2026.
Ces reports ne sont pas anodins pour les entreprises technologiques européennes qui peinaient à absorber la complexité réglementaire de l'AI Act tout en restant compétitives face à des acteurs américains et chinois évoluant dans des cadres nettement plus permissifs. Pour les industriels, le délai supplémentaire représente une fenêtre concrète pour adapter leurs systèmes, former leurs équipes et attendre que les normes techniques d'accompagnement soient effectivement disponibles, un point que la Commission reconnaît explicitement. La vice-présidente Henna Virkkunen, chargée de la Souveraineté technologique, a présenté l'accord comme un équilibre entre innovation et sécurité, un discours qui tranche avec les critiques de certaines organisations de surveillance des lobbies, qui dès le début de l'année dénonçaient l'influence d'« oligarques de la tech » sur le processus législatif.
La pression industrielle sur Bruxelles était intense : le 4 mai, quatre jours seulement avant l'accord, Airbus, Mistral AI, Nokia et ASML avaient co-signé une lettre ouverte déplorant des règles « étouffantes, inutilement complexes et souvent redondantes ». L'AI Act, entré en application en février 2025 avec l'ambition de définir un standard mondial pour une IA digne de confiance, se retrouve ainsi confronté à la même tension que le RGPD en son temps : entre l'ambition normative européenne et les contraintes pratiques d'une industrie qui ne veut pas perdre le rythme face à la concurrence internationale. Les prochains mois diront si ces aménagements suffisent à réconcilier les deux camps, ou si de nouveaux reculs se profilent.
Les entreprises françaises et européennes bénéficient de seize mois supplémentaires pour mettre en conformité leurs systèmes IA à haut risque avec l'AI Act, un délai directement réclamé par Mistral AI et Airbus dans une lettre ouverte du 4 mai 2026.
Seize mois de délai, c'est l'aveu que le calendrier était irréaliste. Mistral et Airbus n'avaient pas tort de sonner l'alarme, pas sur le principe mais sur le rythme : mettre des équipes en conformité avec des normes techniques qui n'existent pas encore, c'est juste impossible. La fermeté sur les deepfakes non consensuels au 2 décembre 2026 sauve un peu la mise.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




