Aller au contenu principal
RégulationLe Big Data25min

Le gouvernement supprime déjà les traces de ses deals avec xAI, Google et Microsoft

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 5 mai 2026, le Center for AI Standards and Innovation (CAISI), rattaché au National Institute of Standards and Technology (NIST) du département américain du Commerce, a annoncé la signature de partenariats avec trois géants technologiques : Google, xAI et Microsoft. Ces accords visaient à permettre au gouvernement américain d'examiner des modèles d'intelligence artificielle encore non publiés avant leur mise sur le marché. Le communiqué officiel précisait que ces nouveaux partenariats prolongeaient des collaborations préexistantes, renégociées pour s'aligner sur les nouvelles directives du secrétaire au Commerce et sur le plan d'action américain dédié à l'IA. Quelques jours à peine après la publication, la page officielle du CAISI hébergeant ce communiqué a disparu, affichant un message d'erreur avant de rediriger automatiquement vers la page d'accueil de l'organisme. Aucune explication officielle n'a été fournie.

Ces accords répondaient à une préoccupation croissante au sein de l'administration américaine : les risques que représentent les IA de pointe pour la sécurité nationale, qu'il s'agisse de cyberattaques sophistiquées ou d'utilisations militaires détournées. En accédant aux modèles avant leur déploiement public, les équipes du CAISI entendaient conduire des évaluations techniques et des recherches ciblées, afin de détecter d'éventuelles failles ou capacités dangereuses et d'exiger des correctifs avant tout lancement. Le modèle Mythos d'Anthropic est cité parmi les systèmes jugés potentiellement sensibles sur le plan de la sécurité. La suppression abrupte du communiqué soulève des interrogations : elle prive le public d'une visibilité sur les mécanismes de surveillance que le gouvernement entend exercer sur les laboratoires d'IA les plus influents de la planète.

Cette disparition s'inscrit dans un contexte politique tendu, où l'administration américaine oscille entre volonté de contrôler les risques des IA avancées et pression des entreprises technologiques qui y voient une ingérence dans leurs cycles de développement. Le CAISI a été conçu pour jouer un rôle central dans l'élaboration de standards de sécurité pour l'IA, mais son autorité réelle et son indépendance vis-à-vis des acteurs industriels restent débattues. La suppression de cette page, sans communication de remplacement, alimente les questions sur la transparence des engagements pris : s'agit-il d'une révision politique, d'une pression des entreprises partenaires, ou d'une simple erreur administrative ? L'agence Reuters, qui a documenté la disparition, n'a obtenu aucune réponse à ses demandes d'explication, laissant l'affaire ouverte au moment de la publication.

Impact France/UE

La suppression de ces accords de supervision pré-déploiement fragilise la crédibilité du modèle américain d'autorégulation, renforçant par contraste l'approche contraignante et transparente de l'AI Act européen.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google, Microsoft et xAI autorisent le gouvernement américain à examiner leurs nouveaux modèles d'IA
1The Verge AI 

Google, Microsoft et xAI autorisent le gouvernement américain à examiner leurs nouveaux modèles d'IA

Google DeepMind, Microsoft et xAI, la société d'intelligence artificielle d'Elon Musk, ont accepté de soumettre leurs nouveaux modèles d'IA à une évaluation gouvernementale avant tout déploiement public. L'annonce, faite mardi par le Centre pour les standards et l'innovation en IA (CAISI) du département américain du Commerce, prévoit des "évaluations pré-déploiement et des recherches ciblées" pour mieux mesurer les capacités des modèles dits frontières. Le CAISI, qui travaille avec OpenAI et Anthropic depuis 2024, revendique déjà 40 évaluations réalisées à ce jour. Ces partenariats représentent un mécanisme de surveillance inédit sur les systèmes d'IA les plus puissants du monde, donnant aux autorités fédérales américaines un accès anticipé à des technologies qui n'ont encore jamais été soumises à un contrôle institutionnel systématique avant leur commercialisation. Pour l'industrie, cela signifie une normalisation progressive du contrôle gouvernemental comme étape du cycle de développement, ce qui pourrait influencer les pratiques mondiales et peser sur les délais de mise sur le marché. OpenAI et Anthropic ont par ailleurs renégocié leurs accords existants avec le CAISI pour mieux les aligner sur les priorités de l'administration Trump, dont la position sur la régulation de l'IA s'est voulue plus souple que celle de son prédécesseur, mais qui cherche néanmoins à garder la main sur les développements stratégiques du secteur. Ces initiatives s'inscrivent dans une compétition technologique mondiale exacerbée, notamment face à la Chine, où l'accès gouvernemental aux modèles frontières est présenté comme un impératif de sécurité nationale autant que de compétitivité.

UECe mécanisme américain de contrôle pré-déploiement pourrait servir de référence pour les autorités européennes dans l'application de l'AI Act, notamment pour les évaluations obligatoires des modèles frontières à haut risque.

💬 Quarante évaluations réalisées, et personne n'en avait entendu parler. C'est le genre d'accord qui se vend comme de la transparence mais qui sert surtout à donner au gouvernement américain un regard en avance sur ce qui sort, dans une logique de sécurité nationale plus que de protection des utilisateurs. Si l'UE s'en inspire pour l'AI Act, bon, ça pourrait au moins donner un cadre concret à ces évaluations frontières qu'on attend depuis des mois.

RégulationReglementation
1 source
Google, Microsoft, xAI… Trump va tester les nouvelles IA en avant-première
2Le Big Data 

Google, Microsoft, xAI… Trump va tester les nouvelles IA en avant-première

Google DeepMind, Microsoft et xAI ont conclu un accord formel avec l'administration Trump pour soumettre leurs futurs modèles d'intelligence artificielle à des évaluations gouvernementales avant tout déploiement public. Ces tests seront conduits par le Center for AI Standards and Innovation (CAISI), un organisme rattaché au département du Commerce américain. Le centre travaillait déjà avec OpenAI et Anthropic, mais l'élargissement à ces trois nouveaux acteurs majeurs marque une étape concrète dans la volonté de Washington de reprendre la main sur le calendrier des lancements. Chris Fall, directeur du CAISI, a insisté sur la nécessité d'une évaluation indépendante et rigoureuse des modèles les plus avancés, invoquant des enjeux de sécurité nationale, de cybersécurité, de désinformation et d'usages militaires potentiels. Ce virage représente un changement de paradigme notable pour une industrie qui défendait jusqu'ici le principe d'une innovation rapide et peu entravée. Que des géants comme Google ou Microsoft acceptent que l'État examine leurs modèles avant chaque lancement illustre un rééquilibrage du rapport de force entre la Silicon Valley et le pouvoir politique. Pour les utilisateurs et les entreprises, cela pourrait se traduire par des délais de mise sur le marché allongés, mais aussi par une forme de garantie supplémentaire sur les capacités et les risques des systèmes déployés. La portée de ces évaluations reste encore floue : le gouvernement n'a pas précisé quels critères s'appliqueront ni si ces tests pourraient bloquer ou retarder un lancement. Selon le New York Times, Donald Trump envisagerait par ailleurs un décret présidentiel pour aller plus loin, en réunissant dirigeants technologiques et responsables gouvernementaux pour superviser directement le développement des nouvelles IA. Le rapprochement avec xAI est particulièrement significatif : Elon Musk, pourtant critique habituel des dérives régulatoires et promoteur d'une IA sans censure idéologique, accepte ici de collaborer avec les autorités fédérales, ce qui témoigne du poids géopolitique qu'a pris le secteur. Les États-Unis cherchent avant tout à préserver leur avance sur la Chine dans la course aux modèles frontières, et les entreprises, de leur côté, ont tout intérêt à s'afficher comme des partenaires responsables de l'État plutôt que comme des acteurs incontrôlables. La question centrale qui émerge de cet accord est celle du contrôle réel : évaluer un modèle avant son lancement n'est pas nécessairement le réguler, et la frontière entre supervision de sécurité et ingérence politique reste, pour l'instant, soigneusement laissée dans le flou.

UECe cadre américain d'évaluation pré-déploiement pourrait servir de référence pour l'interprétation des obligations GPAI de l'AI Act européen, mais n'a pas d'effet direct sur les entreprises ou institutions françaises à ce stade.

RégulationReglementation
1 source
Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale
3The Decoder 

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale

Le Département américain du Commerce vient d'élargir son programme d'accès anticipé aux modèles d'intelligence artificielle développés par les principaux laboratoires du secteur. Après Anthropic et OpenAI, trois nouvelles entreprises ont rejoint le dispositif : Google DeepMind, Microsoft et xAI, la startup d'Elon Musk. Ces acteurs ont signé des accords avec le Center for AI Standards and Innovation (CASI), une entité rattachée au National Institute of Standards and Technology. Concrètement, ils fournissent au gouvernement des versions de leurs modèles dont les garde-fous de sécurité ont été partiellement désactivés, pour permettre des évaluations approfondies dans des environnements classifiés. Cet accès privilégié permet aux agences fédérales d'examiner les capacités réelles de ces systèmes avant leur mise sur le marché, y compris leurs potentiels d'utilisation malveillante. En supprimant les filtres habituels, les testeurs gouvernementaux peuvent sonder les limites des modèles d'une façon que les versions publiques ne permettent pas : identifier des failles exploitables, simuler des scénarios de cyberattaque, ou évaluer les risques liés à la divulgation d'informations sensibles. C'est une rupture significative dans la manière dont l'État supervise ces technologies. Cette expansion s'inscrit dans un contexte de concurrence technologique croissante avec la Chine et de risques cybersécurité liés à l'IA en forte hausse. Washington cherche à établir des standards nationaux solides avant que ces systèmes ne se diffusent à grande échelle. Le fait que cinq des principaux laboratoires mondiaux participent désormais à ce programme signale une convergence inédite entre industrie privée et sécurité nationale, qui pourrait préfigurer un modèle de gouvernance applicable bien au-delà des frontières américaines.

UECe programme américain de supervision pré-déploiement pourrait servir de référence aux autorités européennes qui définissent encore les modalités concrètes d'évaluation des modèles à haut risque dans le cadre de l'AI Act.

💬 C'est le genre d'accord qu'on imaginait se faire dans l'ombre depuis des années, et là c'est officialisé. Cinq labos fournissent des versions sans filtres pour que le gouvernement cherche les failles, ce qui est probablement plus rassurant que l'alternative (tout le monde faisant semblant que ça n'existe pas). Ce qui m'intéresse maintenant, c'est de voir si Bruxelles va copier le modèle ou s'inventer une usine à gaz de plus.

RégulationReglementation
1 source
4Next INpact 

L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche

La Commission européenne a intensifié sa pression sur les géants américains du numérique au cours de la semaine du 14 avril 2026, en ciblant simultanément Meta et Google dans deux dossiers distincts liés à la concurrence sur les marchés de l'intelligence artificielle. Concernant Meta, la Commission a ouvert une procédure formelle fin 2025 pour pratiques anticoncurrentielles, estimant en février 2026 que l'entreprise avait enfreint les règles européennes en bloquant l'accès des assistants d'IA tiers à WhatsApp. Face à cette mise en cause, Meta a soumis le 2 mars 2026 une politique révisée censée lever l'interdiction, mais en introduisant un cadre tarifaire applicable aux assistants d'IA concurrents. La Commission a rejeté cette proposition, jugeant qu'elle produisait le même effet d'exclusion que la politique initiale. Elle a donc adressé à Meta une nouvelle série de griefs formels et annoncé son intention d'imposer des mesures provisoires pour prévenir tout préjudice grave et irréparable sur le marché pendant la durée de l'enquête. Dans le dossier Google, la Commission a proposé des mesures portant sur le partage des données issues du moteur de recherche, sans que les détails aient été pleinement rendus publics. Ces actions illustrent une préoccupation centrale des régulateurs européens : la capacité des plateformes dominantes à verrouiller l'accès aux marchés émergents de l'IA. En contrôlant l'interopérabilité de WhatsApp, Meta peut théoriquement déterminer quels assistants d'IA ont une chance de se développer à grande échelle en Europe, et à quel prix. Les mesures provisoires, si elles entrent en vigueur, auraient un effet immédiat : elles s'appliqueraient jusqu'à la conclusion de l'enquête, contraignant Meta à maintenir des conditions d'accès équitables pour ses concurrents indépendamment de l'issue finale du dossier. Pour les développeurs d'assistants d'IA tiers cherchant à atteindre les deux milliards d'utilisateurs de WhatsApp, l'enjeu est considérable. Ces procédures s'inscrivent dans une stratégie réglementaire européenne cohérente, bâtie sur le Digital Markets Act entré en application en mars 2024, qui désigne les grandes plateformes comme "gatekeepers" soumis à des obligations d'interopérabilité et d'accès équitable. La Commission a déjà ouvert plusieurs enquêtes similaires contre Apple, Alphabet et Amazon. Le cas Meta est notable car il concerne directement la bataille pour l'écosystème des assistants IA, un marché en croissance rapide où chaque point d'entrée compte. Google, de son côté, fait face à des exigences de partage de données de recherche qui pourraient restructurer l'accès à des signaux clés pour l'entraînement et l'amélioration des modèles. La réponse de Meta aux derniers griefs est attendue dans les prochaines semaines, avant une éventuelle décision formelle de la Commission.

UELes mesures provisoires de la Commission pourraient forcer Meta à ouvrir WhatsApp aux assistants d'IA tiers à des conditions équitables, restructurant directement l'accès au marché européen des assistants IA pour les développeurs et startups européens.

💬 Meta a essayé de remplacer un blocage par un péage, et la Commission n'a pas mordu. C'est exactement le genre de manœuvre qu'on attendait : impossible d'ouvrir sans essayer de monétiser l'ouverture en même temps, bon, au moins c'est cohérent avec leur logique. Les mesures provisoires, si elles passent, changent vraiment la donne pour quiconque veut distribuer un assistant IA en Europe sans passer à la caisse de WhatsApp.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour