Aller au contenu principal
☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques
RégulationNext INpact7sem

☕️ Les députés européens veulent repousser la régulation des systèmes d’IA à hauts risques

Résumé IASource uniqueImpact UE
Source originale ↗·

Les commissions du marché intérieur et des libertés civiles du Parlement européen ont adopté une position commune visant à reporter l'application des règles de l'AI Act sur les systèmes d'IA à haut risque. La date initialement prévue du 2 août 2026 serait repoussée au 2 décembre 2027, soit un délai supplémentaire d'environ 16 mois.

Ce report soulève des questions sur la capacité de l'Europe à tenir son calendrier réglementaire alors que la compétition mondiale en IA s'intensifie. L'argument avancé par les parlementaires est pragmatique : les normes techniques principales, nécessaires pour que les entreprises se conforment au texte, « pourraient ne pas être finalisées avant l'échéance actuelle ». Appliquer des obligations sans cadre normatif stabilisé créerait une insécurité juridique pour les opérateurs.

Les catégories d'IA concernées par l'AI Act sont larges : biométrie, gestion d'infrastructures critiques (réseaux routiers, eau, gaz, électricité), éducation, et systèmes couverts par la législation sectorielle de l'UE. Pour ces derniers, le report proposé va encore plus loin, jusqu'au 2 août 2028. Par ailleurs, l'obligation de marquage lisible par machine des contenus générés par IA — prévue elle aussi pour août 2026 — serait décalée au 2 novembre 2026 seulement. Dans le même texte, les députés ont ajouté une interdiction explicite des systèmes de nudification sans consentement, en réponse directe aux millions de deepfakes générés via Grok, le modèle d'xAI d'Elon Musk, déjà visé par plusieurs enquêtes dont celle de l'autorité irlandaise de protection des données.

Ces propositions doivent encore être validées en séance plénière — vote prévu le 26 mars 2026 — puis négociées avec le Conseil européen dans le cadre de l'omnibus numérique. L'issue de ces discussions déterminera si l'Europe maintient son ambition régulatrice ou continue de céder du terrain face aux pressions industrielles.

Impact France/UE

Le report de l'application de l'AI Act sur les systèmes à haut risque jusqu'en décembre 2027 (voire août 2028) prolonge le délai de mise en conformité pour les entreprises françaises et européennes opérant dans les secteurs de la biométrie, des infrastructures critiques et de l'éducation.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
1Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels
201net 

AI Act : les Eurodéputés veulent repousser des échéances clés et interdire les IA générant les deepfakes sexuels

Le Parlement européen a adopté une résolution visant à reporter certaines échéances clés de l'AI Act, le règlement européen sur l'intelligence artificielle entré en vigueur en août 2024. Les eurodéputés souhaitent notamment décaler l'application de plusieurs obligations pour donner plus de temps aux entreprises et aux États membres de s'y conformer. La chambre propose également d'inscrire dans le texte une interdiction explicite des applications d'IA permettant de générer des deepfakes sexuels non consentis. Ces ajustements ont des conséquences directes pour les développeurs et fournisseurs de systèmes d'IA en Europe : un délai supplémentaire signifie moins de pression immédiate sur la conformité, mais aussi un signal que la mise en œuvre du texte reste complexe. L'interdiction des deepfakes sexuels répond à une demande croissante de protection des victimes — majoritairement des femmes — face à une pratique en forte hausse facilitée par les outils génératifs grand public. L'AI Act est le premier cadre légal mondial complet sur l'IA, fruit de trois ans de négociations entre le Parlement, le Conseil et la Commission européenne. Son déploiement progressif jusqu'en 2026 fait l'objet de tensions entre ambitions réglementaires et compétitivité industrielle, dans un contexte où l'Europe cherche à ne pas décrocher face aux géants américains et chinois de l'IA.

UELe Parlement européen propose de reporter certaines échéances de l'AI Act et d'interdire explicitement les deepfakes sexuels non consentis, modifiant directement le calendrier de conformité pour tous les développeurs et fournisseurs de systèmes d'IA opérant sur le marché européen.

RégulationReglementation
1 source
L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles
3The Decoder 

L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles

L'Union européenne vient de réviser en profondeur le calendrier d'application de son règlement sur l'intelligence artificielle. Dans le cadre du "Digital Omnibus on AI", les institutions européennes ont décidé de repousser les principales obligations pour les systèmes dits à haut risque, comme ceux utilisés dans le recrutement, la justice ou la santé, à fin 2027, voire 2028 selon les cas. Parallèlement, les exigences imposées aux petites et moyennes entreprises ont été allégées pour réduire la charge administrative jugée disproportionnée. Cette décision soulage à court terme les acteurs industriels qui peinaient à se conformer à un texte perçu comme trop complexe et trop rapide à mettre en oeuvre. Pour les PME en particulier, qui constituent l'essentiel du tissu économique européen, l'assouplissement évite une mise en conformité coûteuse face à des grandes entreprises mieux armées. En contrepartie, certains observateurs y voient un recul de l'ambition régulatrice de Bruxelles face aux pressions du lobbying technologique. Tout n'est pas repoussé : l'obligation d'étiquetage des deepfakes et des contenus générés par IA entre toujours en vigueur en août 2026, et les applications de "nudification", qui permettent de déshabiller numériquement des personnes à leur insu, sont désormais explicitement interdites. Ce compromis reflète la tension persistante entre la volonté européenne de réguler en pionnière et la crainte de freiner l'innovation face à la concurrence américaine et chinoise, dans un contexte où les modèles d'IA se déploient à une vitesse que les législateurs peinent à suivre.

UELe report des obligations de l'AI Act pour les systèmes à haut risque à fin 2027/2028 offre aux entreprises françaises et aux PME européennes un délai supplémentaire pour se mettre en conformité, tout en maintenant l'obligation d'étiquetage des contenus générés par IA dès août 2026.

💬 C'est le texte qui était trop ambitieux sur le mauvais timing, pas les entreprises qui manquaient de bonne volonté. Je ne pleure pas sur le report, les obligations pour les systèmes à haut risque demandaient une maturité technique qu'on n'avait pas encore. Ce qui compte, c'est que l'étiquetage des deepfakes et l'interdiction des apps de nudification passent quand même, parce que ça ne pouvait vraiment pas attendre.

RégulationReglementation
1 source
La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence
4Frandroid 

La guerre des IA sur Android ? L’Union européenne veut forcer Google à faire de la place à la concurrence

La Commission européenne a conclu, au terme de quatre mois d'enquête, que Google devrait ouvrir Android à des assistants IA concurrents de Gemini. Cette décision s'inscrit dans le cadre du Digital Markets Act (DMA), la législation européenne sur les marchés numériques qui impose aux grandes plateformes désignées comme "contrôleurs d'accès" de ne pas favoriser leurs propres services. Google, qui voit d'un mauvais œil cette injonction, risque des sanctions pouvant atteindre 10 % de son chiffre d'affaires mondial en cas de non-conformité. L'enjeu est considérable : Android équipe plus de 70 % des smartphones dans le monde, et l'assistant IA préinstallé bénéficie d'un avantage structurel massif sur ses concurrents. Forcer Google à proposer un choix d'assistants IA, comme cela a déjà été fait pour les moteurs de recherche avec l'écran de sélection, permettrait à des acteurs comme Mistral, Meta AI, ou d'autres de s'installer sur des centaines de millions d'appareils. Pour les utilisateurs européens, cela signifierait concrètement la possibilité de définir un assistant IA tiers comme assistant par défaut sur leur téléphone Android. Cette enquête s'inscrit dans une pression réglementaire européenne croissante sur les géants du numérique américains, accentuée depuis l'explosion de l'IA générative en 2023. Google a déjà fait l'objet de condamnations antitrust en Europe concernant son moteur de recherche et son système publicitaire. La bataille autour de Gemini sur Android représente le prochain front de ce bras de fer, à un moment où la course aux assistants IA est devenue l'enjeu stratégique central pour Apple, Google, Microsoft et Meta.

UELes utilisateurs européens pourraient bientôt choisir leur assistant IA par défaut sur Android, ouvrant la voie à des acteurs comme Mistral et offrant une alternative concrète à Gemini sur des centaines de millions d'appareils en Europe.

💬 C'est le même bras de fer qu'avec les moteurs de recherche, version IA. L'avantage de la préinstallation, c'est écrasant : si Gemini est là par défaut et que tu n'y touches pas, Mistral n'existe pas pour toi. La DMA force le sujet, c'est déjà ça, reste à voir si l'écran de choix sera moins ignoré que celui qu'on avait eu pour les navigateurs.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour