Aller au contenu principal
L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic
RégulationThe Decoder2h

L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

L'Union européenne peine à exercer une supervision concrète sur les modèles d'IA les plus puissants, faute d'accès garanti aux systèmes qu'elle souhaite évaluer. OpenAI a proposé à la Commission européenne un accès direct à son nouveau modèle GPT-5.5 Cyber pour des évaluations de sécurité, et des discussions sont déjà en cours. Du côté d'Anthropic, la situation est plus bloquée : après quatre à cinq réunions portant sur son modèle Mythos, les régulateurs n'ont toujours pas obtenu l'accès demandé.

Ce décalage révèle une fragilité structurelle du cadre réglementaire européen. L'AI Act, présenté comme le premier règlement contraignant au monde sur l'intelligence artificielle, n'impose pas encore de mécanismes d'accès obligatoires et opposables aux modèles les plus avancés. Résultat : les régulateurs ne peuvent pas auditer ce qu'on ne leur montre pas. Si les grandes entreprises américaines choisissent de coopérer à des degrés très différents, c'est toute la crédibilité de la supervision européenne qui s'en trouve fragilisée, et avec elle la confiance du public dans l'efficacité réelle de ces règles.

La situation intervient alors que l'Europe accélère la mise en oeuvre de l'AI Act, dont les premières obligations pour les modèles à usage général sont entrées en vigueur en août 2024. Les modèles dits "à risque systémique" sont soumis à des exigences de transparence renforcées, mais les mécanismes d'audit indépendants restent en construction. L'Europe se retrouve dans une position inconfortable : vouloir réguler des technologies qu'elle ne produit pas, face à des entreprises dont le siège, les ressources juridiques et les leviers de négociation sont aux États-Unis.

Impact France/UE

L'AI Act ne dispose pas encore de mécanismes d'accès contraignants pour les modèles à risque systémique, exposant une fragilité structurelle dans la capacité de supervision des régulateurs européens face aux grands fournisseurs américains.

💬 Le point de vue du dev

Anthropic refuse l'accès depuis cinq réunions, OpenAI joue le jeu pour l'instant : ce décalage dit tout sur ce que "régulation" veut vraiment dire ici. L'AI Act a des obligations de transparence, mais sans droit d'audit opposable, c'est un règlement qui demande poliment. Reste à voir combien de temps les coopérations volontaires tiendront quand les audits commenceront à coûter quelque chose.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification
1Next INpact 

☕️ Le Parlement européen repousse la régulation de l’IA et veut interdire la nudification

Le Parlement européen a adopté ce jeudi une position officielle sur la simplification du règlement sur l'intelligence artificielle, avec 569 voix pour, 45 contre et 23 abstentions. Les députés proposent de repousser l'entrée en vigueur des obligations pour les systèmes d'IA à haut risque du 2 août 2026 au 2 décembre 2027, soit près d'un an et demi de délai supplémentaire. Les systèmes couverts par la législation sectorielle européenne de sécurité et de surveillance du marché sont, eux, repoussés au 2 août 2028. Par ailleurs, les règles sur le marquage numérique des contenus générés par IA — images, vidéos, textes, audio — sont décalées à novembre 2026, alors qu'elles devaient entrer en vigueur cet été. En parallèle, les députés introduisent une interdiction explicite des outils de « nudification », ces applications qui utilisent l'IA pour créer ou manipuler des images sexuellement explicites ressemblant à une personne réelle identifiable sans son consentement. Ces reports témoignent d'une tension profonde au sein des institutions européennes entre l'ambition régulatrice et la pression économique. Repousser les obligations pour les systèmes à haut risque signifie que des outils d'IA déployés dans des domaines sensibles — recrutement, crédit, justice, médecine — pourront continuer à opérer sans audit formel pendant encore deux ans. Pour les entreprises tech, c'est un répit bienvenu ; pour les associations de défense des droits numériques, c'est une capitulation devant les lobbys industriels. L'interdiction des outils de nudification apporte en revanche une réponse concrète à une urgence documentée : l'Internet Watch Foundation a alerté cette semaine sur la multiplication d'images et vidéos pédocriminelles générées par IA, soulignant l'ampleur du problème dès maintenant, bien avant toute entrée en vigueur d'un cadre légal. Ce vote s'inscrit dans le septième paquet omnibus de simplification proposé par la Commission européenne depuis novembre 2025, qui cherche à alléger les contraintes réglementaires pesant sur les entreprises dans un contexte de compétition accrue avec les États-Unis et la Chine. Le vote de position du Parlement ouvre désormais la voie aux négociations avec le Conseil de l'UE, puis à un trilogue avant le vote définitif sur la version consolidée de l'AI Act. La question du marquage des contenus IA est particulièrement sensible : des bases de données recensent déjà près de 12 000 sites d'actualités entièrement générés par IA, rendant la traçabilité de l'origine des contenus d'autant plus urgente. Le calendrier législatif révisé laisse donc plusieurs mois supplémentaires pendant lesquels ces contenus circuleront sans obligation d'identification.

UELe Parlement européen vote pour repousser les obligations de l'AI Act pour les systèmes à haut risque jusqu'en décembre 2027, offrant un sursis aux entreprises françaises et européennes déployant l'IA dans des secteurs sensibles (recrutement, crédit, médecine), tout en introduisant une interdiction explicite des outils de nudification.

💬 L'interdiction des outils de nudification, c'est du concret là où il en fallait vraiment. Mais repousser les obligations sur les systèmes à haut risque jusqu'en 2027, ça veut dire deux ans de plus sans audit formel pour des IA qui décident de ton crédit ou de ton embauche, et franchement c'est un cadeau aux lobbys industriels habillé en simplification. Reste à voir si le Conseil fait mieux au trilogue, mais j'y crois moyen.

RégulationReglementation
1 source
Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA
2AI News 

Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA

Fin février, le secrétaire américain à la Défense Pete Hegseth a adressé un ultimatum au PDG d'Anthropic, Dario Amodei : supprimer les garde-fous empêchant Claude d'être utilisé pour des armes entièrement autonomes et de la surveillance de masse intérieure, ou en subir les conséquences. Amodei a refusé, estimant qu'Anthropic ne pouvait pas "en bonne conscience" répondre à la demande du Pentagone, certains usages de l'IA pouvant "saper plutôt que défendre les valeurs démocratiques". La réaction de Washington a été immédiate : Donald Trump a ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic, le Pentagone a classé l'entreprise comme risque pour la chaîne d'approvisionnement -- label habituellement réservé à des entités étrangères adverses comme Huawei -- et le contrat de 200 millions de dollars avec le ministère de la Défense a été annulé. Londres a interprété cet épisode très différemment. Le département britannique pour la Science, l'Innovation et la Technologie (DSIT) a élaboré des propositions concrètes destinées à l'entreprise, valorisée 380 milliards de dollars : une double cotation à la Bourse de Londres et l'expansion de ses bureaux dans la capitale. Le bureau du Premier ministre Keir Starmer soutient l'initiative, qui sera soumise à Amodei lors de sa visite prévue fin mai. Anthropic compte déjà environ 200 employés au Royaume-Uni et a nommé l'ancien Premier ministre Rishi Sunak conseiller senior l'an dernier. En offrant cette ouverture, le gouvernement britannique envoie un signal explicite : les contraintes éthiques intégrées dans les produits d'Anthropic sont un atout, pas un frein. Une double cotation à Londres permettrait par ailleurs à la société d'accéder aux investisseurs institutionnels européens, à un moment où sa situation réglementaire aux États-Unis reste incertaine -- l'appel du Pentagone contre l'injonction provisoire qui bloque la désignation "risque d'approvisionnement" est toujours en cours devant la Cour d'appel du Neuvième Circuit. L'affaire dépasse le simple conflit juridique et commercial. La juge fédérale Rita Lin, qui a accordé l'injonction provisoire en mars, a jugé les actions du gouvernement américain "troublantes" et probablement contraires à la loi -- un constat qui pèse dans le débat international sur la gouvernance de l'IA. Le Royaume-Uni se positionne comme un environnement intermédiaire entre Washington, qui exige un accès militaire sans restriction, et Bruxelles, où l'AI Act européen impose ses propres contraintes. Ce positionnement ne demande pas à Anthropic de renoncer aux garde-fous pour lesquels l'entreprise s'est battue en justice. La compétition pour attirer les grands laboratoires d'IA à Londres est déjà intense : OpenAI a promis d'en faire son plus grand hub de recherche hors des États-Unis, et Google est ancré à King's Cross depuis le rachat de DeepMind en 2014. Dans ce contexte, Anthropic représente la cible la plus stratégique à ce jour, d'autant que le Royaume-Uni vient d'annoncer la création d'un laboratoire de recherche public doté de 40 millions de livres sterling, reconnaissant ainsi l'absence d'un champion national face aux grandes puissances américaines.

UELe Royaume-Uni se positionne comme hub alternatif entre Washington et Bruxelles en valorisant les garde-fous éthiques d'Anthropic, ce qui pourrait orienter des capitaux institutionnels européens vers l'entreprise et renforcer indirectement le modèle de gouvernance incarné par l'AI Act.

RégulationReglementation
1 source
☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine
3Next INpact 

☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine

Depuis la semaine dernière, Anthropic exige de certains de ses abonnés une vérification d'identité avec pièce officielle avec photo avant de continuer à utiliser Claude. Sans détailler publiquement les critères exacts, la société américaine confirme au site The Information que la mesure vise à bloquer l'accès commercial depuis des pays considérés comme adversaires des États-Unis, notamment la Chine, la Russie et la Corée du Nord. Anthropic invoque des raisons de sécurité nationale et indique que son équipe chargée des garde-fous « applique activement ces règles » et « prend des mesures contre les comptes en infraction ». Pour l'instant, la vérification ne touche pas l'ensemble des utilisateurs chinois, mais ses effets se font déjà sentir chez les startups qui ont bâti leur activité sur l'API Claude. Sur Idle Fish, la marketplace entre particuliers du groupe Alibaba, des vendeurs proposent déjà des contournements : comptes Claude Code préenregistrés, accès à des comptes existants, ou vente de pièces d'identité étrangères. Cette décision illustre la montée en puissance des considérations géopolitiques dans l'industrie de l'IA. Anthropic rejoint ainsi OpenAI, qui restreint déjà l'accès à ChatGPT dans plusieurs pays et exclut officiellement la Chine, la Russie et la Corée du Nord de sa liste de territoires autorisés, sans toutefois avoir mis en place à ce jour de vérification d'identité formelle. Pour les entreprises technologiques chinoises qui s'appuyaient sur Claude, cette coupure représente une rupture opérationnelle réelle, les forçant soit à migrer vers d'autres modèles, soit à adopter des pratiques de contournement risquées. Plus largement, ce type de restriction tend à accélérer la fragmentation du paysage mondial de l'IA entre blocs technologiques distincts. Ce blocage s'inscrit dans un contexte de tensions croissantes entre Washington et Pékin autour des technologies d'intelligence artificielle, qui fait suite aux restrictions déjà en vigueur sur l'exportation de semi-conducteurs américains avancés vers la Chine. Ces limitations ont poussé des acteurs comme Huawei et Baidu à intensifier le développement de leurs propres puces dédiées à l'IA. La même logique s'applique aux modèles de langage : coupée des outils américains les plus performants, la Chine a accéléré la construction de ses propres alternatives, dont la plus spectaculaire reste l'émergence de DeepSeek début 2025, qui a surpris l'ensemble de l'industrie par ses capacités. Si les restrictions d'Anthropic venaient à se généraliser ou à se durcir, elles pourraient paradoxalement renforcer l'écosystème IA chinois en lui donnant une raison supplémentaire de ne plus dépendre des modèles occidentaux.

RégulationReglementation
1 source
L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles
4The Decoder 

L'Europe face à la complexité de la régulation de l'IA : reporter la plupart des règles

L'Union européenne vient de réviser en profondeur le calendrier d'application de son règlement sur l'intelligence artificielle. Dans le cadre du "Digital Omnibus on AI", les institutions européennes ont décidé de repousser les principales obligations pour les systèmes dits à haut risque, comme ceux utilisés dans le recrutement, la justice ou la santé, à fin 2027, voire 2028 selon les cas. Parallèlement, les exigences imposées aux petites et moyennes entreprises ont été allégées pour réduire la charge administrative jugée disproportionnée. Cette décision soulage à court terme les acteurs industriels qui peinaient à se conformer à un texte perçu comme trop complexe et trop rapide à mettre en oeuvre. Pour les PME en particulier, qui constituent l'essentiel du tissu économique européen, l'assouplissement évite une mise en conformité coûteuse face à des grandes entreprises mieux armées. En contrepartie, certains observateurs y voient un recul de l'ambition régulatrice de Bruxelles face aux pressions du lobbying technologique. Tout n'est pas repoussé : l'obligation d'étiquetage des deepfakes et des contenus générés par IA entre toujours en vigueur en août 2026, et les applications de "nudification", qui permettent de déshabiller numériquement des personnes à leur insu, sont désormais explicitement interdites. Ce compromis reflète la tension persistante entre la volonté européenne de réguler en pionnière et la crainte de freiner l'innovation face à la concurrence américaine et chinoise, dans un contexte où les modèles d'IA se déploient à une vitesse que les législateurs peinent à suivre.

UELe report des obligations de l'AI Act pour les systèmes à haut risque à fin 2027/2028 offre aux entreprises françaises et aux PME européennes un délai supplémentaire pour se mettre en conformité, tout en maintenant l'obligation d'étiquetage des contenus générés par IA dès août 2026.

💬 C'est le texte qui était trop ambitieux sur le mauvais timing, pas les entreprises qui manquaient de bonne volonté. Je ne pleure pas sur le report, les obligations pour les systèmes à haut risque demandaient une maturité technique qu'on n'avait pas encore. Ce qui compte, c'est que l'étiquetage des deepfakes et l'interdiction des apps de nudification passent quand même, parce que ça ne pouvait vraiment pas attendre.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour