Aller au contenu principal
☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos
RégulationNext INpact1h

☕️ Bruxelles obtient un accès à GPT-5.5-Cyber, mais ça bloque toujours avec Mythos

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

La Commission européenne a officiellement obtenu un accès à GPT-5.5-Cyber, le modèle de langage d'OpenAI dédié à la cybersécurité, disponible depuis le 7 mai 2026 en accès limité pour les organisations chargées de sécuriser les infrastructures critiques. Thomas Regnier, porte-parole de la Commission pour la souveraineté technologique, a salué « la transparence d'OpenAI et sa volonté de donner à la Commission un accès à son nouveau modèle », précisant que cela permettrait de « suivre de très près le déploiement » du modèle et de traiter certaines préoccupations de sécurité. C'est OpenAI qui a fait le premier pas en contactant directement Bruxelles. La Commission doit maintenant définir quelles entités internes pourront travailler concrètement avec le modèle : parmi les candidates figurent la DG Connect, l'AI Office et l'agence de cybersécurité ENISA. Côté Anthropic, les discussions pour un accès à Mythos, le modèle le plus ambitieux de la société, se poursuivent après quatre ou cinq réunions, mais restent loin du niveau atteint avec OpenAI.

Cet accès revêt une importance stratégique pour l'Union européenne, qui cherche à ne pas rester à l'écart des outils d'IA les plus avancés dans un domaine aussi sensible que la cybersécurité. George Osborne, responsable d'OpenAI for Countries, a insisté sur le fait que les capacités de GPT-5.5-Cyber devaient être « accessibles aux nombreux défenseurs européens, et pas seulement à quelques-uns ». La Commission obtient ainsi un levier d'analyse directe sur un modèle dont les usages touchent aux infrastructures critiques du continent, ce qui lui permettra de mieux évaluer les risques et les conformités réglementaires avant tout déploiement élargi. L'absence d'accès équivalent à Mythos, en revanche, crée un angle mort notable : Bruxelles se retrouve en position d'observateur partiel face à l'offre d'Anthropic, dont le modèle est présenté comme particulièrement puissant.

Ce mouvement s'inscrit dans la stratégie globale d'OpenAI baptisée « OpenAI for Countries », lancée pour tisser des partenariats institutionnels avec les gouvernements à l'échelle mondiale, et dont un plan d'action spécifique pour la cybersécurité en Europe a déjà été annoncé. Le programme TAC (Trusted Access for Cyber) d'OpenAI, élargi en avril avec GPT-5.4-Cyber, conditionne l'accès à une vérification préalable des partenaires, ce qui place la Commission dans un cercle restreint de confiance. Cette dynamique révèle une compétition croissante entre les grands laboratoires américains pour gagner la confiance des institutions européennes, à l'heure où l'AI Act impose de nouvelles obligations de transparence. Si Anthropic ne parvient pas à trouver un terrain d'accord similaire avec Bruxelles, Mythos risque de faire face à un accueil réglementaire plus difficile sur le marché européen que son rival d'OpenAI.

Impact France/UE

La Commission européenne dispose d'un accès direct à GPT-5.5-Cyber pour évaluer les risques sur les infrastructures critiques et vérifier la conformité à l'AI Act, tandis que l'absence d'accord similaire avec Anthropic pour Mythos crée un angle mort réglementaire potentiellement défavorable à ce modèle sur le marché européen.

💬 Le point de vue du dev

Ce qui se joue là, c'est pas de la conformité réglementaire, c'est de la conquête de territoire. OpenAI a fait le premier pas vers Bruxelles, a décroché l'accès, et se retrouve dans le cercle de confiance de la Commission avant que l'AI Act soit pleinement appliqué. Anthropic, après cinq réunions sans avancée sur Mythos, part avec un désavantage qui risque de coûter cher.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale
1The Decoder 

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale

Le Département américain du Commerce vient d'élargir son programme d'accès anticipé aux modèles d'intelligence artificielle développés par les principaux laboratoires du secteur. Après Anthropic et OpenAI, trois nouvelles entreprises ont rejoint le dispositif : Google DeepMind, Microsoft et xAI, la startup d'Elon Musk. Ces acteurs ont signé des accords avec le Center for AI Standards and Innovation (CASI), une entité rattachée au National Institute of Standards and Technology. Concrètement, ils fournissent au gouvernement des versions de leurs modèles dont les garde-fous de sécurité ont été partiellement désactivés, pour permettre des évaluations approfondies dans des environnements classifiés. Cet accès privilégié permet aux agences fédérales d'examiner les capacités réelles de ces systèmes avant leur mise sur le marché, y compris leurs potentiels d'utilisation malveillante. En supprimant les filtres habituels, les testeurs gouvernementaux peuvent sonder les limites des modèles d'une façon que les versions publiques ne permettent pas : identifier des failles exploitables, simuler des scénarios de cyberattaque, ou évaluer les risques liés à la divulgation d'informations sensibles. C'est une rupture significative dans la manière dont l'État supervise ces technologies. Cette expansion s'inscrit dans un contexte de concurrence technologique croissante avec la Chine et de risques cybersécurité liés à l'IA en forte hausse. Washington cherche à établir des standards nationaux solides avant que ces systèmes ne se diffusent à grande échelle. Le fait que cinq des principaux laboratoires mondiaux participent désormais à ce programme signale une convergence inédite entre industrie privée et sécurité nationale, qui pourrait préfigurer un modèle de gouvernance applicable bien au-delà des frontières américaines.

UECe programme américain de supervision pré-déploiement pourrait servir de référence aux autorités européennes qui définissent encore les modalités concrètes d'évaluation des modèles à haut risque dans le cadre de l'AI Act.

💬 C'est le genre d'accord qu'on imaginait se faire dans l'ombre depuis des années, et là c'est officialisé. Cinq labos fournissent des versions sans filtres pour que le gouvernement cherche les failles, ce qui est probablement plus rassurant que l'alternative (tout le monde faisant semblant que ça n'existe pas). Ce qui m'intéresse maintenant, c'est de voir si Bruxelles va copier le modèle ou s'inventer une usine à gaz de plus.

RégulationReglementation
1 source
Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts
2Ars Technica AI 

Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts

L'administration Trump a conclu des accords cette semaine avec Google DeepMind, Microsoft et xAI pour soumettre leurs modèles d'IA de pointe à des contrôles de sécurité gouvernementaux, avant et après leur mise sur le marché. Ce revirement survient après que Donald Trump avait ouvertement balayé les politiques héritées de l'ère Biden, qualifiant les vérifications volontaires de surréglementation freinant l'innovation. Il avait même rebaptisé l'AI Safety Institute en Centre pour les Standards et l'Innovation de l'IA (CAISI), supprimant délibérément le mot "sécurité" dans un geste symbolique adressé à son prédécesseur. Selon Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, Trump envisagerait désormais de signer un décret présidentiel rendant ces tests obligatoires avant tout déploiement de systèmes d'IA avancés. Ce changement de cap brutal illustre les tensions croissantes autour des modèles les plus puissants. Il intervient directement après qu'Anthropic a annoncé suspendre la sortie de son dernier modèle, Claude Mythos, estimant que ses capacités avancées en cybersécurité représentaient un risque trop élevé d'exploitation par des acteurs malveillants. Cette décision a visiblement ébranlé la Maison Blanche, qui semblait jusqu'ici peu préoccupée par la question. L'engagement de trois géants technologiques dans un dispositif de vérification officiel marque un tournant potentiellement structurant pour la gouvernance de l'IA aux États-Unis, à un moment où les modèles frontier franchissent de nouveaux seuils de capacité. Ce volte-face s'inscrit dans une tension plus large au sein de l'administration Trump entre l'impératif de compétitivité technologique face à la Chine et la gestion des risques concrets posés par des systèmes toujours plus autonomes. Depuis son retour à la Maison Blanche, Trump avait adopté une posture délibérément permissive sur la régulation de l'IA, cherchant à attirer investissements et talents. Mais la décision d'Anthropic de bloquer la sortie de Claude Mythos a rendu intenable l'absence totale de cadre fédéral. Si un décret est finalement signé, il pourrait redéfinir le rôle du CAISI et établir un précédent sur la manière dont Washington entend superviser les technologies les plus sensibles de la prochaine décennie.

UEUn cadre fédéral américain obligatoire de tests pré-déploiement créerait une pression normative internationale et pourrait influencer l'interprétation pratique de l'AI Act européen sur les obligations de contrôle des modèles frontier.

💬 Ce qui a mis Trump en mouvement, c'est Anthropic qui a bloqué son propre modèle, pas une campagne de lobbying ou un rapport du Congrès. Quand les labos eux-mêmes freinent des deux pieds parce que leurs outils font trop peur, l'absence de cadre fédéral devient indéfendable, et même Washington le voit. Reste à voir si ces tests ont des dents ou si c'est du tampon de complaisance.

RégulationReglementation
1 source
Leurs voix volées par une IA américaine : 25 doubleurs français viennent d’obtenir gain de cause
3Siècle Digital 

Leurs voix volées par une IA américaine : 25 doubleurs français viennent d’obtenir gain de cause

Vingt-cinq comédiens de doublage français viennent d'obtenir gain de cause en justice contre une plateforme américaine d'intelligence artificielle qui commercialisait leurs voix sans autorisation. Parmi les victimes figurent les doubleurs attitrés de Harrison Ford, Angelina Jolie, Sandra Bullock et Richard Gere, dont les voix françaises étaient proposées à la vente sur des services de synthèse vocale par IA, sans contrat, sans rémunération et sans même notification préalable. La société avait constitué ses modèles en aspirant des enregistrements professionnels disponibles en ligne, transformant des années de travail artistique en données d'entraînement exploitables commercialement. Cette décision constitue un précédent juridique majeur pour la profession. Une voix de doubleur n'est pas un simple outil interchangeable : elle résulte d'un travail de construction identitaire et artistique sur plusieurs décennies, et représente un actif économique direct. Que ces voix puissent être clonées et monétisées sans accord ouvre la voie à une dévaluation massive du métier, à l'heure où les studios cherchent justement à réduire leurs coûts de production audiovisuelle en recourant à des voix synthétiques. Le cas s'inscrit dans une vague de litiges qui touche l'ensemble du secteur créatif, des acteurs hollywoodiens aux auteurs en passant par les illustrateurs. En Europe, le règlement sur l'IA impose des obligations de transparence sur les données d'entraînement, ce qui donne aux plaignants un levier légal plus solide qu'aux États-Unis. Cette victoire française pourrait encourager d'autres actions collectives similaires, et pousser les plateformes d'IA vocale à revoir en profondeur leurs pratiques d'acquisition de données.

UECette décision judiciaire française crée un précédent direct pour les professionnels de la création en Europe : combinée aux obligations de transparence du règlement sur l'IA concernant les données d'entraînement, elle ouvre la voie à des actions collectives similaires dans d'autres États membres contre les plateformes de synthèse vocale exploitant des enregistrements sans consentement.

💬 Enfin une décision qui dit clairement que non, aspirer des enregistrements professionnels pour en faire un produit commercial, c'est pas de la "recherche" ou du "fair use". Ce qui est bien ici, c'est que c'est la France qui pose le précédent, avec l'AI Act derrière pour muscler les arguments, là où un tribunal américain aurait probablement tergiversé pendant des années. Reste à voir si les plateformes vont vraiment changer leurs pratiques ou juste affiner leurs CGU pour contourner le problème.

RégulationReglementation
1 source
Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone
4The Information AI 

Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone

Je vais rédiger l'article à partir du titre et du début fournis, complétés par mes connaissances sur cette affaire. --- Une juge fédérale californienne, Rita Lin du tribunal du district nord de Californie, a accordé à Anthropic une injonction préliminaire suspendant la désignation du Pentagone qui classait la startup d'IA comme risque pour la chaîne d'approvisionnement. Cette décision intervient pendant que le procès intenté par Anthropic contre le département de la Défense suit son cours, empêchant ainsi le ministère d'appliquer ce classement dans l'immédiat. Cette victoire juridique est significative pour Anthropic, dont la désignation par le Pentagone aurait pu l'exclure de contrats fédéraux et ternir sa réputation auprès de partenaires commerciaux. Pour une startup valorisée à plusieurs milliards de dollars et dont une partie croissante du chiffre d'affaires provient de contrats avec des agences gouvernementales et des entreprises du Fortune 500, être labellisée « risque pour la chaîne d'approvisionnement » représentait une menace commerciale directe. Cette affaire s'inscrit dans un contexte de tension croissante entre l'industrie de l'IA et les autorités réglementaires et sécuritaires américaines. La désignation du Pentagone, dont les critères exacts restent flous, illustre les inquiétudes de certains cercles de défense quant aux liens entre les grands laboratoires d'IA et des investisseurs ou partenaires étrangers. Anthropic, cofondé en 2021 par d'anciens cadres d'OpenAI, a reçu des investissements notables d'Amazon et de Google. L'issue du procès au fond pourrait établir un précédent sur la capacité du gouvernement à restreindre l'accès des entreprises d'IA aux marchés publics sans procédure contradictoire formelle.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour