Aller au contenu principal
RégulationFrenchWebà l'instant

OpenAI abat quelques cartes à Bruxelles, Anthropic garde son jeu fermé

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenAI a accepté d'ouvrir partiellement l'accès à certains de ses modèles sensibles aux institutions européennes, une concession que les grands laboratoires d'intelligence artificielle refusaient collectivement il y a encore quelques mois. Cette décision marque un tournant dans les relations entre les géants de l'IA et les régulateurs du Vieux Continent. Anthropic, de son côté, a opté pour la posture inverse en maintenant son modèle Mythos hors de portée de Bruxelles, au moins dans l'immédiat.

Cette divergence d'approche n'est pas anodine : elle illustre une fracture stratégique au sein de l'industrie face aux exigences réglementaires européennes. En acceptant d'accorder un accès partiel, OpenAI se positionne comme un acteur coopératif, ce qui pourrait lui valoir un traitement favorable dans le cadre de l'application de l'AI Act. Pour les autorités européennes, obtenir un tel accès est crucial afin d'évaluer les risques des systèmes les plus puissants avant leur déploiement massif. Anthropic, en refusant pour l'instant, prend le pari que sa position de négociation reste solide malgré la pression institutionnelle croissante.

L'AI Act européen, entré progressivement en vigueur depuis 2024, impose aux fournisseurs de modèles dits à usage général de grande puissance des obligations de transparence inédites. Les régulateurs réclament notamment des accès techniques pour auditer les capacités et les risques de ces systèmes. Les stratégies divergentes d'OpenAI et d'Anthropic dessinent ainsi deux visions du rapport à la régulation : la coopération calculée d'un côté, la résistance prudente de l'autre. La suite dépendra en grande partie des sanctions que Bruxelles sera prête à infliger aux récalcitrants.

Impact France/UE

La concession d'OpenAI crée un précédent pour l'application de l'AI Act, ouvrant la voie à un audit réglementaire des modèles puissants par les autorités européennes, avec des implications directes pour les entreprises et administrations françaises utilisant ces systèmes.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic
1The Decoder 

L'UE veut réguler l'IA mais dépend de la coopération d'OpenAI et Anthropic

L'Union européenne peine à exercer une supervision concrète sur les modèles d'IA les plus puissants, faute d'accès garanti aux systèmes qu'elle souhaite évaluer. OpenAI a proposé à la Commission européenne un accès direct à son nouveau modèle GPT-5.5 Cyber pour des évaluations de sécurité, et des discussions sont déjà en cours. Du côté d'Anthropic, la situation est plus bloquée : après quatre à cinq réunions portant sur son modèle Mythos, les régulateurs n'ont toujours pas obtenu l'accès demandé. Ce décalage révèle une fragilité structurelle du cadre réglementaire européen. L'AI Act, présenté comme le premier règlement contraignant au monde sur l'intelligence artificielle, n'impose pas encore de mécanismes d'accès obligatoires et opposables aux modèles les plus avancés. Résultat : les régulateurs ne peuvent pas auditer ce qu'on ne leur montre pas. Si les grandes entreprises américaines choisissent de coopérer à des degrés très différents, c'est toute la crédibilité de la supervision européenne qui s'en trouve fragilisée, et avec elle la confiance du public dans l'efficacité réelle de ces règles. La situation intervient alors que l'Europe accélère la mise en oeuvre de l'AI Act, dont les premières obligations pour les modèles à usage général sont entrées en vigueur en août 2024. Les modèles dits "à risque systémique" sont soumis à des exigences de transparence renforcées, mais les mécanismes d'audit indépendants restent en construction. L'Europe se retrouve dans une position inconfortable : vouloir réguler des technologies qu'elle ne produit pas, face à des entreprises dont le siège, les ressources juridiques et les leviers de négociation sont aux États-Unis.

UEL'AI Act ne dispose pas encore de mécanismes d'accès contraignants pour les modèles à risque systémique, exposant une fragilité structurelle dans la capacité de supervision des régulateurs européens face aux grands fournisseurs américains.

💬 Anthropic refuse l'accès depuis cinq réunions, OpenAI joue le jeu pour l'instant : ce décalage dit tout sur ce que "régulation" veut vraiment dire ici. L'AI Act a des obligations de transparence, mais sans droit d'audit opposable, c'est un règlement qui demande poliment. Reste à voir combien de temps les coopérations volontaires tiendront quand les audits commenceront à coûter quelque chose.

RégulationReglementation
1 source
Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
2MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source
☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos
3Next INpact 

☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos

La Commission européenne a officiellement obtenu un accès à GPT-5.5-Cyber, le modèle de langage d'OpenAI dédié à la cybersécurité, disponible depuis le 7 mai 2026 en accès limité pour les organisations chargées de sécuriser les infrastructures critiques. Thomas Regnier, porte-parole de la Commission pour la souveraineté technologique, a salué « la transparence d'OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », précisant que cela permettrait de « suivre de très près le déploiement » du modèle et de traiter certaines préoccupations de sécurité. C'est OpenAI qui a fait le premier pas en contactant directement Bruxelles. La Commission doit maintenant définir quelles entités internes pourront travailler concrètement avec le modèle : parmi les candidates figurent la DG Connect, l'AI Office et l'agence de cybersécurité ENISA. Côté Anthropic, les discussions pour un accès à Mythos, le modèle le plus ambitieux de la société, se poursuivent après quatre ou cinq réunions, mais restent loin du niveau atteint avec OpenAI. Cet accès revêt une importance stratégique pour l'Union européenne, qui cherche à ne pas rester à l'écart des outils d'IA les plus avancés dans un domaine aussi sensible que la cybersécurité. George Osborne, responsable d'OpenAI for Countries, a insisté sur le fait que les capacités de GPT-5.5-Cyber devaient être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns ». La Commission obtient ainsi un levier d'analyse directe sur un modèle dont les usages touchent aux infrastructures critiques du continent, ce qui lui permettra de mieux évaluer les risques et les conformités réglementaires avant tout déploiement élargi. L'absence d'accès équivalent à Mythos, en revanche, crée un angle mort notable : Bruxelles se retrouve en position d'observateur partiel face à l'offre d'Anthropic, dont le modèle est présenté comme particulièrement puissant. Ce mouvement s'inscrit dans la stratégie globale d'OpenAI baptisée « OpenAI for Countries », lancée pour tisser des partenariats institutionnels avec les gouvernements à l'échelle mondiale, et dont un plan d'action spécifique pour la cybersécurité en Europe a déjà été annoncé. Le programme TAC (Trusted Access for Cyber) d'OpenAI, élargi en avril avec GPT-5.4-Cyber, conditionne l'accès à une vérification préalable des partenaires, ce qui place la Commission dans un cercle restreint de confiance. Cette dynamique révèle une compétition croissante entre les grands laboratoires américains pour gagner la confiance des institutions européennes, à l'heure où l'AI Act impose de nouvelles obligations de transparence. Si Anthropic ne parvient pas à trouver un terrain d'accord similaire avec Bruxelles, Mythos risque de faire face à un accueil réglementaire plus difficile sur le marché européen que son rival d'OpenAI.

UELa Commission européenne dispose d'un accès direct à GPT-5.5-Cyber pour évaluer les risques sur les infrastructures critiques et vérifier la conformité à l'AI Act, tandis que l'absence d'accord similaire avec Anthropic pour Mythos crée un angle mort réglementaire potentiellement défavorable à ce modèle sur le marché européen.

💬 Ce qui se joue là, c'est pas de la conformité réglementaire, c'est de la conquête de territoire. OpenAI a fait le premier pas vers Bruxelles, a décroché l'accès, et se retrouve dans le cercle de confiance de la Commission avant que l'AI Act soit pleinement appliqué. Anthropic, après cinq réunions sans avancée sur Mythos, part avec un désavantage qui risque de coûter cher.

RégulationReglementation
1 source
Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes
4Ars Technica AI 

Anthropic reconnaît que son action DMCA contre les fuites a touché par erreur des forks GitHub légitimes

Anthropic a lancé cette semaine une procédure DMCA auprès de GitHub pour faire retirer le code source de son client Claude Code, qui avait fuité récemment. La notice ciblait un dépôt initial publié par l'utilisateur GitHub "nirholas" ainsi qu'une centaine de forks spécifiquement nommés. Mais GitHub, estimant que "la majorité des forks enfreignaient les droits au même titre que le dépôt parent", a étendu le retrait à un réseau de 8 100 dépôts. Cette action a été depuis partiellement annulée. Le problème : cette suppression massive a touché de nombreux dépôts parfaitement légitimes, qui ne contenaient pas le code fuité mais forkaient simplement le dépôt public officiel de Claude Code qu'Anthropic maintient pour encourager les rapports de bugs et les contributions de la communauté. Des développeurs se sont exprimés sur les réseaux sociaux pour dénoncer leur inclusion dans ce filet DMCA alors qu'ils n'avaient partagé aucune donnée illicite. Au-delà du désagrément immédiat, l'incident illustre les limites des outils juridiques face à la viralité du code sur GitHub : une fois un dépôt forké des milliers de fois, toute tentative de suppression exhaustive devient presque impossible à cibler avec précision. Cette fuite s'inscrit dans un contexte de tension croissante autour de la propriété intellectuelle des outils d'IA. Claude Code est l'environnement de développement assisté d'Anthropic, concurrent direct de GitHub Copilot et des outils de Cursor. Que son code source circule librement représente un risque stratégique non négligeable pour la startup, valorisée à plusieurs milliards de dollars. L'épisode révèle aussi les effets de bord des procédures DMCA automatisées sur GitHub, où la logique de réseau des forks rend difficile toute chirurgie juridique fine. Anthropic reste confronté à un défi considérable pour limiter la propagation du code fuité, désormais largement distribué.

UEDes développeurs européens ayant forké le dépôt officiel de Claude Code ont vu leurs projets supprimés à tort, mais l'incident relève du droit américain (DMCA) sans implications réglementaires directes pour la France ou l'UE.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour