Le gouvernement supprime déjà les traces de ses deals avec xAI, Google et Microsoft
Le 5 mai 2026, le Center for AI Standards and Innovation (CAISI), rattaché au National Institute of Standards and Technology (NIST) du département américain du Commerce, a annoncé la signature de partenariats avec trois géants technologiques : Google, xAI et Microsoft. Ces accords visaient à permettre au gouvernement américain d'examiner des modèles d'intelligence artificielle encore non publiés avant leur mise sur le marché. Le communiqué officiel précisait que ces nouveaux partenariats prolongeaient des collaborations préexistantes, renégociées pour s'aligner sur les nouvelles directives du secrétaire au Commerce et sur le plan d'action américain dédié à l'IA. Quelques jours à peine après la publication, la page officielle du CAISI hébergeant ce communiqué a disparu, affichant un message d'erreur avant de rediriger automatiquement vers la page d'accueil de l'organisme. Aucune explication officielle n'a été fournie.
Ces accords répondaient à une préoccupation croissante au sein de l'administration américaine : les risques que représentent les IA de pointe pour la sécurité nationale, qu'il s'agisse de cyberattaques sophistiquées ou d'utilisations militaires détournées. En accédant aux modèles avant leur déploiement public, les équipes du CAISI entendaient conduire des évaluations techniques et des recherches ciblées, afin de détecter d'éventuelles failles ou capacités dangereuses et d'exiger des correctifs avant tout lancement. Le modèle Mythos d'Anthropic est cité parmi les systèmes jugés potentiellement sensibles sur le plan de la sécurité. La suppression abrupte du communiqué soulève des interrogations : elle prive le public d'une visibilité sur les mécanismes de surveillance que le gouvernement entend exercer sur les laboratoires d'IA les plus influents de la planète.
Cette disparition s'inscrit dans un contexte politique tendu, où l'administration américaine oscille entre volonté de contrôler les risques des IA avancées et pression des entreprises technologiques qui y voient une ingérence dans leurs cycles de développement. Le CAISI a été conçu pour jouer un rôle central dans l'élaboration de standards de sécurité pour l'IA, mais son autorité réelle et son indépendance vis-à-vis des acteurs industriels restent débattues. La suppression de cette page, sans communication de remplacement, alimente les questions sur la transparence des engagements pris : s'agit-il d'une révision politique, d'une pression des entreprises partenaires, ou d'une simple erreur administrative ? L'agence Reuters, qui a documenté la disparition, n'a obtenu aucune réponse à ses demandes d'explication, laissant l'affaire ouverte au moment de la publication.
La suppression de ces accords de supervision pré-déploiement fragilise la crédibilité du modèle américain d'autorégulation, renforçant par contraste l'approche contraignante et transparente de l'AI Act européen.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



