Aller au contenu principal
☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos
RégulationNext INpact1j

☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

La Commission européenne a officiellement obtenu un accès à GPT-5.5-Cyber, le modèle de langage d'OpenAI dédié à la cybersécurité, disponible depuis le 7 mai 2026 en accès limité pour les organisations chargées de sécuriser les infrastructures critiques. Thomas Regnier, porte-parole de la Commission pour la souveraineté technologique, a salué « la transparence d'OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », précisant que cela permettrait de « suivre de très près le déploiement » du modèle et de traiter certaines préoccupations de sécurité. C'est OpenAI qui a fait le premier pas en contactant directement Bruxelles. La Commission doit maintenant définir quelles entités internes pourront travailler concrètement avec le modèle : parmi les candidates figurent la DG Connect, l'AI Office et l'agence de cybersécurité ENISA. Côté Anthropic, les discussions pour un accès à Mythos, le modèle le plus ambitieux de la société, se poursuivent après quatre ou cinq réunions, mais restent loin du niveau atteint avec OpenAI.

Cet accès revêt une importance stratégique pour l'Union européenne, qui cherche à ne pas rester à l'écart des outils d'IA les plus avancés dans un domaine aussi sensible que la cybersécurité. George Osborne, responsable d'OpenAI for Countries, a insisté sur le fait que les capacités de GPT-5.5-Cyber devaient être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns ». La Commission obtient ainsi un levier d'analyse directe sur un modèle dont les usages touchent aux infrastructures critiques du continent, ce qui lui permettra de mieux évaluer les risques et les conformités réglementaires avant tout déploiement élargi. L'absence d'accès équivalent à Mythos, en revanche, crée un angle mort notable : Bruxelles se retrouve en position d'observateur partiel face à l'offre d'Anthropic, dont le modèle est présenté comme particulièrement puissant.

Ce mouvement s'inscrit dans la stratégie globale d'OpenAI baptisée « OpenAI for Countries », lancée pour tisser des partenariats institutionnels avec les gouvernements à l'échelle mondiale, et dont un plan d'action spécifique pour la cybersécurité en Europe a déjà été annoncé. Le programme TAC (Trusted Access for Cyber) d'OpenAI, élargi en avril avec GPT-5.4-Cyber, conditionne l'accès à une vérification préalable des partenaires, ce qui place la Commission dans un cercle restreint de confiance. Cette dynamique révèle une compétition croissante entre les grands laboratoires américains pour gagner la confiance des institutions européennes, à l'heure où l'AI Act impose de nouvelles obligations de transparence. Si Anthropic ne parvient pas à trouver un terrain d'accord similaire avec Bruxelles, Mythos risque de faire face à un accueil réglementaire plus difficile sur le marché européen que son rival d'OpenAI.

Impact France/UE

La Commission européenne dispose d'un accès direct à GPT-5.5-Cyber pour évaluer les risques sur les infrastructures critiques et vérifier la conformité à l'AI Act, tandis que l'absence d'accord similaire avec Anthropic pour Mythos crée un angle mort réglementaire potentiellement défavorable à ce modèle sur le marché européen.

💬 Le point de vue du dev

Ce qui se joue là, c'est pas de la conformité réglementaire, c'est de la conquête de territoire. OpenAI a fait le premier pas vers Bruxelles, a décroché l'accès, et se retrouve dans le cercle de confiance de la Commission avant que l'AI Act soit pleinement appliqué. Anthropic, après cinq réunions sans avancée sur Mythos, part avec un désavantage qui risque de coûter cher.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale
1The Decoder 

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale

Le Département américain du Commerce vient d'élargir son programme d'accès anticipé aux modèles d'intelligence artificielle développés par les principaux laboratoires du secteur. Après Anthropic et OpenAI, trois nouvelles entreprises ont rejoint le dispositif : Google DeepMind, Microsoft et xAI, la startup d'Elon Musk. Ces acteurs ont signé des accords avec le Center for AI Standards and Innovation (CASI), une entité rattachée au National Institute of Standards and Technology. Concrètement, ils fournissent au gouvernement des versions de leurs modèles dont les garde-fous de sécurité ont été partiellement désactivés, pour permettre des évaluations approfondies dans des environnements classifiés. Cet accès privilégié permet aux agences fédérales d'examiner les capacités réelles de ces systèmes avant leur mise sur le marché, y compris leurs potentiels d'utilisation malveillante. En supprimant les filtres habituels, les testeurs gouvernementaux peuvent sonder les limites des modèles d'une façon que les versions publiques ne permettent pas : identifier des failles exploitables, simuler des scénarios de cyberattaque, ou évaluer les risques liés à la divulgation d'informations sensibles. C'est une rupture significative dans la manière dont l'État supervise ces technologies. Cette expansion s'inscrit dans un contexte de concurrence technologique croissante avec la Chine et de risques cybersécurité liés à l'IA en forte hausse. Washington cherche à établir des standards nationaux solides avant que ces systèmes ne se diffusent à grande échelle. Le fait que cinq des principaux laboratoires mondiaux participent désormais à ce programme signale une convergence inédite entre industrie privée et sécurité nationale, qui pourrait préfigurer un modèle de gouvernance applicable bien au-delà des frontières américaines.

UECe programme américain de supervision pré-déploiement pourrait servir de référence aux autorités européennes qui définissent encore les modalités concrètes d'évaluation des modèles à haut risque dans le cadre de l'AI Act.

💬 C'est le genre d'accord qu'on imaginait se faire dans l'ombre depuis des années, et là c'est officialisé. Cinq labos fournissent des versions sans filtres pour que le gouvernement cherche les failles, ce qui est probablement plus rassurant que l'alternative (tout le monde faisant semblant que ça n'existe pas). Ce qui m'intéresse maintenant, c'est de voir si Bruxelles va copier le modèle ou s'inventer une usine à gaz de plus.

RégulationReglementation
1 source
OpenAI abat quelques cartes à Bruxelles, Anthropic garde son jeu fermé
2FrenchWeb 

OpenAI abat quelques cartes à Bruxelles, Anthropic garde son jeu fermé

OpenAI a accepté d'ouvrir partiellement l'accès à certains de ses modèles sensibles aux institutions européennes, une concession que les grands laboratoires d'intelligence artificielle refusaient collectivement il y a encore quelques mois. Cette décision marque un tournant dans les relations entre les géants de l'IA et les régulateurs du Vieux Continent. Anthropic, de son côté, a opté pour la posture inverse en maintenant son modèle Mythos hors de portée de Bruxelles, au moins dans l'immédiat. Cette divergence d'approche n'est pas anodine : elle illustre une fracture stratégique au sein de l'industrie face aux exigences réglementaires européennes. En acceptant d'accorder un accès partiel, OpenAI se positionne comme un acteur coopératif, ce qui pourrait lui valoir un traitement favorable dans le cadre de l'application de l'AI Act. Pour les autorités européennes, obtenir un tel accès est crucial afin d'évaluer les risques des systèmes les plus puissants avant leur déploiement massif. Anthropic, en refusant pour l'instant, prend le pari que sa position de négociation reste solide malgré la pression institutionnelle croissante. L'AI Act européen, entré progressivement en vigueur depuis 2024, impose aux fournisseurs de modèles dits à usage général de grande puissance des obligations de transparence inédites. Les régulateurs réclament notamment des accès techniques pour auditer les capacités et les risques de ces systèmes. Les stratégies divergentes d'OpenAI et d'Anthropic dessinent ainsi deux visions du rapport à la régulation : la coopération calculée d'un côté, la résistance prudente de l'autre. La suite dépendra en grande partie des sanctions que Bruxelles sera prête à infliger aux récalcitrants.

UELa concession d'OpenAI crée un précédent pour l'application de l'AI Act, ouvrant la voie à un audit réglementaire des modèles puissants par les autorités européennes, avec des implications directes pour les entreprises et administrations françaises utilisant ces systèmes.

💬 OpenAI joue la carte de l'apaisement avec Bruxelles, et franchement c'est un move intelligent, même si on ne sait pas encore ce qu'ils ont vraiment ouvert. Anthropic qui refuse, c'est un pari risqué : soit ils ont des raisons solides de protéger Mythos, soit ils vont se retrouver en mauvaise posture quand les sanctions de l'AI Act commenceront à tomber. Reste à voir si la coopération d'OpenAI leur vaut vraiment un traitement de faveur, ou juste un audit plus poussé que prévu.

RégulationReglementation
1 source
Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts
3Ars Technica AI 

Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts

L'administration Trump a conclu des accords cette semaine avec Google DeepMind, Microsoft et xAI pour soumettre leurs modèles d'IA de pointe à des contrôles de sécurité gouvernementaux, avant et après leur mise sur le marché. Ce revirement survient après que Donald Trump avait ouvertement balayé les politiques héritées de l'ère Biden, qualifiant les vérifications volontaires de surréglementation freinant l'innovation. Il avait même rebaptisé l'AI Safety Institute en Centre pour les Standards et l'Innovation de l'IA (CAISI), supprimant délibérément le mot "sécurité" dans un geste symbolique adressé à son prédécesseur. Selon Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, Trump envisagerait désormais de signer un décret présidentiel rendant ces tests obligatoires avant tout déploiement de systèmes d'IA avancés. Ce changement de cap brutal illustre les tensions croissantes autour des modèles les plus puissants. Il intervient directement après qu'Anthropic a annoncé suspendre la sortie de son dernier modèle, Claude Mythos, estimant que ses capacités avancées en cybersécurité représentaient un risque trop élevé d'exploitation par des acteurs malveillants. Cette décision a visiblement ébranlé la Maison Blanche, qui semblait jusqu'ici peu préoccupée par la question. L'engagement de trois géants technologiques dans un dispositif de vérification officiel marque un tournant potentiellement structurant pour la gouvernance de l'IA aux États-Unis, à un moment où les modèles frontier franchissent de nouveaux seuils de capacité. Ce volte-face s'inscrit dans une tension plus large au sein de l'administration Trump entre l'impératif de compétitivité technologique face à la Chine et la gestion des risques concrets posés par des systèmes toujours plus autonomes. Depuis son retour à la Maison Blanche, Trump avait adopté une posture délibérément permissive sur la régulation de l'IA, cherchant à attirer investissements et talents. Mais la décision d'Anthropic de bloquer la sortie de Claude Mythos a rendu intenable l'absence totale de cadre fédéral. Si un décret est finalement signé, il pourrait redéfinir le rôle du CAISI et établir un précédent sur la manière dont Washington entend superviser les technologies les plus sensibles de la prochaine décennie.

UEUn cadre fédéral américain obligatoire de tests pré-déploiement créerait une pression normative internationale et pourrait influencer l'interprétation pratique de l'AI Act européen sur les obligations de contrôle des modèles frontier.

💬 Ce qui a mis Trump en mouvement, c'est Anthropic qui a bloqué son propre modèle, pas une campagne de lobbying ou un rapport du Congrès. Quand les labos eux-mêmes freinent des deux pieds parce que leurs outils font trop peur, l'absence de cadre fédéral devient indéfendable, et même Washington le voit. Reste à voir si ces tests ont des dents ou si c'est du tampon de complaisance.

RégulationReglementation
1 source
Le gouvernement supprime déjà les traces de ses deals avec xAI, Google et Microsoft
4Le Big Data 

Le gouvernement supprime déjà les traces de ses deals avec xAI, Google et Microsoft

Le 5 mai 2026, le Center for AI Standards and Innovation (CAISI), rattaché au National Institute of Standards and Technology (NIST) du département américain du Commerce, a annoncé la signature de partenariats avec trois géants technologiques : Google, xAI et Microsoft. Ces accords visaient à permettre au gouvernement américain d'examiner des modèles d'intelligence artificielle encore non publiés avant leur mise sur le marché. Le communiqué officiel précisait que ces nouveaux partenariats prolongeaient des collaborations préexistantes, renégociées pour s'aligner sur les nouvelles directives du secrétaire au Commerce et sur le plan d'action américain dédié à l'IA. Quelques jours à peine après la publication, la page officielle du CAISI hébergeant ce communiqué a disparu, affichant un message d'erreur avant de rediriger automatiquement vers la page d'accueil de l'organisme. Aucune explication officielle n'a été fournie. Ces accords répondaient à une préoccupation croissante au sein de l'administration américaine : les risques que représentent les IA de pointe pour la sécurité nationale, qu'il s'agisse de cyberattaques sophistiquées ou d'utilisations militaires détournées. En accédant aux modèles avant leur déploiement public, les équipes du CAISI entendaient conduire des évaluations techniques et des recherches ciblées, afin de détecter d'éventuelles failles ou capacités dangereuses et d'exiger des correctifs avant tout lancement. Le modèle Mythos d'Anthropic est cité parmi les systèmes jugés potentiellement sensibles sur le plan de la sécurité. La suppression abrupte du communiqué soulève des interrogations : elle prive le public d'une visibilité sur les mécanismes de surveillance que le gouvernement entend exercer sur les laboratoires d'IA les plus influents de la planète. Cette disparition s'inscrit dans un contexte politique tendu, où l'administration américaine oscille entre volonté de contrôler les risques des IA avancées et pression des entreprises technologiques qui y voient une ingérence dans leurs cycles de développement. Le CAISI a été conçu pour jouer un rôle central dans l'élaboration de standards de sécurité pour l'IA, mais son autorité réelle et son indépendance vis-à-vis des acteurs industriels restent débattues. La suppression de cette page, sans communication de remplacement, alimente les questions sur la transparence des engagements pris : s'agit-il d'une révision politique, d'une pression des entreprises partenaires, ou d'une simple erreur administrative ? L'agence Reuters, qui a documenté la disparition, n'a obtenu aucune réponse à ses demandes d'explication, laissant l'affaire ouverte au moment de la publication.

UELa suppression de ces accords de supervision pré-déploiement fragilise la crédibilité du modèle américain d'autorégulation, renforçant par contraste l'approche contraignante et transparente de l'AI Act européen.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour