Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale
Le Département américain du Commerce vient d'élargir son programme d'accès anticipé aux modèles d'intelligence artificielle développés par les principaux laboratoires du secteur. Après Anthropic et OpenAI, trois nouvelles entreprises ont rejoint le dispositif : Google DeepMind, Microsoft et xAI, la startup d'Elon Musk. Ces acteurs ont signé des accords avec le Center for AI Standards and Innovation (CASI), une entité rattachée au National Institute of Standards and Technology. Concrètement, ils fournissent au gouvernement des versions de leurs modèles dont les garde-fous de sécurité ont été partiellement désactivés, pour permettre des évaluations approfondies dans des environnements classifiés.
Cet accès privilégié permet aux agences fédérales d'examiner les capacités réelles de ces systèmes avant leur mise sur le marché, y compris leurs potentiels d'utilisation malveillante. En supprimant les filtres habituels, les testeurs gouvernementaux peuvent sonder les limites des modèles d'une façon que les versions publiques ne permettent pas : identifier des failles exploitables, simuler des scénarios de cyberattaque, ou évaluer les risques liés à la divulgation d'informations sensibles. C'est une rupture significative dans la manière dont l'État supervise ces technologies.
Cette expansion s'inscrit dans un contexte de concurrence technologique croissante avec la Chine et de risques cybersécurité liés à l'IA en forte hausse. Washington cherche à établir des standards nationaux solides avant que ces systèmes ne se diffusent à grande échelle. Le fait que cinq des principaux laboratoires mondiaux participent désormais à ce programme signale une convergence inédite entre industrie privée et sécurité nationale, qui pourrait préfigurer un modèle de gouvernance applicable bien au-delà des frontières américaines.
Ce programme américain de supervision pré-déploiement pourrait servir de référence aux autorités européennes qui définissent encore les modalités concrètes d'évaluation des modèles à haut risque dans le cadre de l'AI Act.
C'est le genre d'accord qu'on imaginait se faire dans l'ombre depuis des années, et là c'est officialisé. Cinq labos fournissent des versions sans filtres pour que le gouvernement cherche les failles, ce qui est probablement plus rassurant que l'alternative (tout le monde faisant semblant que ça n'existe pas). Ce qui m'intéresse maintenant, c'est de voir si Bruxelles va copier le modèle ou s'inventer une usine à gaz de plus.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



