Aller au contenu principal
SécuritéNext INpact1h

☕️ Washington veut pouvoir tester les nouveaux modèles IA avant tout le monde

Résumé IASource uniqueImpact UE
Source originale ↗·

Microsoft, Google et xAI ont conclu des accords avec le Centre américain pour les standards et l'innovation en IA (CAISI) afin de lui fournir un accès anticipé à leurs modèles les plus avancés avant tout déploiement public. Ces modèles seront livrés sans garde-fous de sécurité, ce qui permettra aux chercheurs gouvernementaux de tester leurs capacités dans des scénarios hostiles réalistes. Le CAISI, qui avait déjà signé des accords similaires avec OpenAI et Anthropic, compte à ce jour une quarantaine d'évaluations de modèles à son actif, dont certains n'avaient pas encore été mis à la disposition du grand public. Microsoft a confirmé auprès de Reuters cette collaboration visant à identifier des "comportements inattendus" dans ses systèmes, et a par ailleurs signé un accord comparable avec l'AI Security Institute britannique.

Cette initiative répond à une préoccupation croissante à Washington : ne pas découvrir les capacités réelles d'un nouveau modèle IA en même temps que le reste du monde, hackers inclus. Le lancement récent de Mythos, le modèle de pointe d'Anthropic, a cristallisé ces inquiétudes chez les spécialistes de la cyberdéfense. Entre les mains de pirates informatiques, un tel système pourrait potentiellement identifier et exploiter des failles dans des infrastructures critiques à une vitesse et une échelle inédites. C'est précisément pour limiter ce risque que le déploiement de Mythos a été restreint à une cinquantaine d'organisations sélectionnées. Le CAISI a ainsi fait évoluer sa mission : au-delà du développement de standards de tests, il évalue désormais les risques stratégiques et militaires que font peser ces modèles sur la sécurité nationale.

Créé sous l'administration Biden comme AI Safety Institute, rattaché au département du Commerce, cet organisme a été rebaptisé CAISI par l'administration Trump tout en conservant ses attributions fondamentales. Son rôle s'inscrit dans un resserrement général des liens entre Washington et l'industrie de l'IA. La semaine précédant ces annonces, le Pentagone dévoilait des accords avec plusieurs fournisseurs d'IA pour l'exploitation de leurs modèles dans des missions classifiées, écartant notamment Anthropic du lot principal, même si Mythos pourrait malgré tout y être intégré selon certaines sources. La course aux modèles de frontière confronte ainsi les grandes puissances à un dilemme inédit : plus ces systèmes sont capables, plus ils deviennent à la fois des atouts stratégiques et des vecteurs de risques que les États cherchent à anticiper avant que le marché ne les diffuse à tous.

Impact France/UE

L'approche américaine de tests pré-déploiement sans garde-fous, couplée à l'accord similaire avec l'AI Security Institute britannique, crée une référence normative qui pourrait renforcer les exigences d'évaluation des modèles frontières dans le cadre de l'AI Act européen.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1AI News 

Anthropic garde un nouveau modèle IA secret après avoir découvert des milliers de failles externes

Anthropic a développé un nouveau modèle d'intelligence artificielle, baptisé Claude Mythos Preview, dont les capacités en cybersécurité sont jugées trop dangereuses pour une diffusion publique. Ce modèle a déjà identifié des milliers de vulnérabilités dans les principaux systèmes d'exploitation et navigateurs web, notamment un bug vieux de 27 ans dans OpenBSD et une faille critique de 17 ans dans FreeBSD, la CVE-2026-4747, permettant à n'importe quel utilisateur non authentifié de prendre le contrôle total d'un serveur exposé sur internet. Cette dernière découverte a été réalisée de manière entièrement autonome, sans intervention humaine après la simple instruction initiale. Plutôt que de commercialiser le modèle, Anthropic a choisi de le confier discrètement à une coalition de partenaires fondateurs incluant Amazon Web Services, Apple, Cisco, Google, Microsoft, Nvidia, CrowdStrike, JPMorganChase et la Linux Foundation, auxquels s'ajoutent plus de 40 organisations gérant des infrastructures logicielles critiques. L'entreprise s'engage à mobiliser jusqu'à 100 millions de dollars en crédits d'utilisation et 4 millions de dollars en dons directs à des organisations de sécurité open source, dont 2,5 millions à Alpha-Omega et OpenSSF via la Linux Foundation, et 1,5 million à la Fondation Apache. L'enjeu dépasse la simple prouesse technique. Mythos Preview est capable de chaîner trois, quatre, voire cinq vulnérabilités distinctes pour construire des exploits sophistiqués, selon Nicholas Carlini, chercheur chez Anthropic, qui déclare avoir trouvé "plus de bugs ces dernières semaines que dans toute sa vie réunie". Le modèle sature désormais les benchmarks de sécurité existants, forçant Anthropic à se concentrer sur des tâches réelles inédites, notamment la découverte de failles zero-day. Newton Cheng, responsable de la Red Team cyber chez Anthropic, est explicite : les retombées d'une diffusion incontrôlée "pour les économies, la sécurité publique et la sécurité nationale pourraient être sévères". Pour les mainteneurs open source, qui gèrent des logiciels critiques sans équipes de sécurité dédiées, l'accès à ce type d'outil représente un rééquilibrage structurel : la sécurité de haut niveau cesse d'être un privilège réservé aux grands groupes. Cette initiative s'inscrit dans un contexte de tensions croissantes autour de l'IA offensive. Anthropic avait précédemment documenté le premier cas avéré d'une cyberattaque conduite majoritairement par des agents IA, un groupe soutenu par l'État chinois ayant infiltré une trentaine de cibles mondiales avec une autonomie tactique quasi totale. Les services de renseignement américains ont été informés en privé des capacités complètes de Mythos Preview et évaluent actuellement son impact potentiel sur les opérations offensives et défensives. Le projet Glasswing représente ainsi le pari d'Anthropic : diffuser les capacités défensives avant que les capacités offensives ne se propagent à des acteurs moins scrupuleux, dans une course contre la montre que la rapidité même des progrès de l'IA rend particulièrement incertaine.

UELes infrastructures open source européennes sont directement exposées aux vulnérabilités découvertes, notamment la CVE-2026-4747 affectant FreeBSD et un bug vieux de 27 ans dans OpenBSD, utilisés dans de nombreux systèmes critiques en Europe.

SécuritéActu
1 source
Anthropic lance un nouveau modèle d'IA pour la cybersécurité
2The Verge AI 

Anthropic lance un nouveau modèle d'IA pour la cybersécurité

Anthropic lance un nouveau modèle d'intelligence artificielle dédié à la cybersécurité, dans le cadre d'un partenariat baptisé Project Glasswing réunissant Nvidia, Google, Amazon Web Services, Apple, Microsoft et d'autres grandes entreprises technologiques. Ce projet propose aux partenaires de lancement un accès à Claude Mythos Preview, un modèle généraliste inédit qu'Anthropic ne prévoit pas de rendre public en raison de préoccupations liées à la sécurité. L'objectif affiché est de permettre aux grandes organisations, et potentiellement aux gouvernements, de détecter automatiquement des vulnérabilités dans leurs systèmes avec une intervention humaine quasi nulle. L'enjeu est considérable pour les équipes de sécurité informatique qui font face à un volume croissant de menaces et manquent souvent de ressources pour les auditer manuellement. En automatisant la détection de failles, Claude Mythos Preview pourrait réduire drastiquement le temps de réponse face aux cyberattaques et permettre aux entreprises d'identifier des vulnérabilités avant que des acteurs malveillants ne les exploitent. Newton Cheng, responsable cyber au sein de l'équipe red team d'Anthropic, indique que le modèle vise à donner aux équipes de sécurité un avantage structurel sur leurs adversaires. Cette initiative s'inscrit dans une tendance de fond où les grands laboratoires d'IA cherchent à positionner leurs modèles sur des secteurs critiques à haute valeur ajoutée. Anthropic, qui se distingue par son approche axée sur la sécurité des systèmes d'IA, choisit ici de restreindre l'accès à ce modèle plutôt que de le diffuser largement, une décision rare qui soulève des questions sur la gouvernance des outils d'IA offensifs et défensifs dans un contexte géopolitique tendu.

UELes organisations européennes et gouvernements de l'UE pourraient accéder à cet outil de détection automatique de vulnérabilités via le programme partenaires, renforçant leur posture de cybersécurité face aux menaces croissantes.

SécuritéActu
1 source
3AI News 

Anthropic entre à la Maison Blanche : Mythos ouvre les portes de Washington

Le PDG d'Anthropic, Dario Amodei, s'est rendu à la Maison-Blanche vendredi pour rencontrer Susie Wiles, cheffe de cabinet du président Trump, en présence du secrétaire au Trésor Scott Bessent. Les deux parties ont qualifié les échanges de "productifs et constructifs". La visite intervient quelques semaines seulement après qu'une décision de l'administration Trump avait désigné Anthropic comme un "risque dans la chaîne d'approvisionnement", une classification habituellement réservée aux adversaires étrangers, et après que Trump avait lui-même déclaré que son gouvernement ne ferait "plus jamais affaire" avec l'entreprise. Un juge fédéral de San Francisco a depuis bloqué l'application de cette directive, maintenant Anthropic éligible aux contrats avec les agences civiles le temps que le litige se règle. Le différend avec le Pentagone, lui, reste entier. Ce qui a modifié le rapport de force, c'est le modèle Mythos d'Anthropic, un système d'IA spécialisé en cybersécurité aux capacités jugées inégalées. Lors de tests internes, Mythos a localisé des milliers de failles inconnues et critiques dans tous les grands systèmes d'exploitation et navigateurs web, dont un bug vieux de 27 ans dans OpenBSD et une vulnérabilité de 16 ans dans FFmpeg, passée cinq millions de fois à travers des outils automatisés sans être détectée. Anthropic a choisi de ne pas le diffuser publiquement et l'a réservé à un cercle restreint via le "Project Glasswing", une coalition incluant AWS, Apple, Cisco, Google, Microsoft, Nvidia, CrowdStrike et JPMorganChase, soutenue par jusqu'à 100 millions de dollars en crédits d'utilisation. Des agences de renseignement américaines et la CISA (l'agence fédérale de cybersécurité) testent déjà Mythos, et le Trésor a également manifesté son intérêt. Selon Axios, un accord permettant à des agences gouvernementales de rejoindre le programme Glasswing pourrait être conclu rapidement. La réunion de vendredi avait pour objectif explicite de séparer deux dossiers qui s'étaient enchevêtrés : le conflit avec le Pentagone d'un côté, et l'accès du reste du gouvernement fédéral aux outils d'Anthropic de l'autre. En toile de fond, une tension difficile à résoudre : Mythos est un outil à double usage, capable de renforcer les défenses comme d'armer des attaquants. Un conseiller de Trump a résumé la situation à Axios en ces termes : "Tout le monde se plaint, il y a tout ce drame, donc ça a été remonté à Susie pour qu'elle écoute Dario." Sean Cairncross, directeur national de la cybersécurité, doit diriger un groupe de hauts fonctionnaires chargé d'identifier les vulnérabilités des infrastructures critiques, une mission pour laquelle Mythos devient difficile à ignorer.

UELes failles critiques découvertes par Mythos dans des systèmes largement déployés en Europe (OpenBSD, FFmpeg, navigateurs majeurs) concernent indirectement les infrastructures européennes, mais le programme Glasswing et les accords gouvernementaux restent pour l'instant limités aux agences américaines.

💬 Un bug de 27 ans dans OpenBSD, passé cinq millions de fois sous les outils automatisés sans être vu. Ça explique pourquoi Dario Amodei se retrouve à la Maison-Blanche trois semaines après que Trump avait juré de ne plus jamais travailler avec eux. Bon, le problème du double usage, lui, ne se règle pas avec une réunion à Washington.

SécuritéActu
1 source
Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA
4The Information AI 

Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA

Anthropic a involontairement rendu public un brouillon de billet de blog révélant l'existence d'un nouveau modèle d'IA baptisé "Mythos", spécialement conçu pour la génération et la révision de code informatique. Selon ce document, le modèle serait capable d'exploiter des vulnérabilités de sécurité "d'une manière qui dépasse largement les efforts des défenseurs". La société a déjà commencé à briefer des chercheurs en cybersécurité et leur accorde un accès anticipé afin de recueillir des retours avant un lancement officiel. L'enjeu est considérable : si un tel modèle tombait entre de mauvaises mains, il permettrait à des hackers peu qualifiés de mener des attaques sophistiquées à grande échelle, creusant davantage l'écart entre attaquants et défenseurs. Anthropic cherche précisément à identifier ces risques avant la mise sur le marché, en s'appuyant sur la communauté des chercheurs pour "red-teamer" le modèle et réduire son potentiel offensif. Cette démarche illustre la tension croissante entre les capacités des LLMs spécialisés dans le code et les impératifs de sécurité. Cette initiative s'inscrit dans une tendance plus large où les grands laboratoires d'IA — OpenAI, Google DeepMind, et désormais Anthropic — développent des modèles hautement performants pour le code, tout en faisant face à des questions épineuses sur leur double usage. Anthropic, qui se positionne comme un acteur responsable de l'IA via sa politique d'"IA constitutionnelle", se retrouve confronté au paradoxe fondamental du domaine : les mêmes capacités qui accélèrent la défense peuvent aussi armer les adversaires. La divulgation accidentelle du brouillon suggère que la pression autour de Mythos est déjà forte en interne.

UELes capacités offensives de modèles comme Mythos représentent une menace directe pour les infrastructures numériques européennes et soulèvent des questions de conformité avec l'AI Act concernant les systèmes IA à double usage.

💬 Un modèle qui dépasse les défenseurs sur leur propre terrain, c'est le scénario qu'on redoutait depuis que les LLMs de code sont vraiment capables. Ce qui compte, c'est qu'Anthropic le dit franchement et organise le red-teaming avant le lancement, pas après. La fuite du draft, c'est maladroit, mais ça confirme surtout que la pression en interne est déjà énorme.

SécuritéOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour