Aller au contenu principal
RégulationLe Big Data1h

Google, Microsoft, xAI… Trump va tester les nouvelles IA en avant-première

Résumé IASource uniqueImpact UE
Source originale ↗·

Google DeepMind, Microsoft et xAI ont conclu un accord formel avec l'administration Trump pour soumettre leurs futurs modèles d'intelligence artificielle à des évaluations gouvernementales avant tout déploiement public. Ces tests seront conduits par le Center for AI Standards and Innovation (CAISI), un organisme rattaché au département du Commerce américain. Le centre travaillait déjà avec OpenAI et Anthropic, mais l'élargissement à ces trois nouveaux acteurs majeurs marque une étape concrète dans la volonté de Washington de reprendre la main sur le calendrier des lancements. Chris Fall, directeur du CAISI, a insisté sur la nécessité d'une évaluation indépendante et rigoureuse des modèles les plus avancés, invoquant des enjeux de sécurité nationale, de cybersécurité, de désinformation et d'usages militaires potentiels.

Ce virage représente un changement de paradigme notable pour une industrie qui défendait jusqu'ici le principe d'une innovation rapide et peu entravée. Que des géants comme Google ou Microsoft acceptent que l'État examine leurs modèles avant chaque lancement illustre un rééquilibrage du rapport de force entre la Silicon Valley et le pouvoir politique. Pour les utilisateurs et les entreprises, cela pourrait se traduire par des délais de mise sur le marché allongés, mais aussi par une forme de garantie supplémentaire sur les capacités et les risques des systèmes déployés. La portée de ces évaluations reste encore floue : le gouvernement n'a pas précisé quels critères s'appliqueront ni si ces tests pourraient bloquer ou retarder un lancement.

Selon le New York Times, Donald Trump envisagerait par ailleurs un décret présidentiel pour aller plus loin, en réunissant dirigeants technologiques et responsables gouvernementaux pour superviser directement le développement des nouvelles IA. Le rapprochement avec xAI est particulièrement significatif : Elon Musk, pourtant critique habituel des dérives régulatoires et promoteur d'une IA sans censure idéologique, accepte ici de collaborer avec les autorités fédérales, ce qui témoigne du poids géopolitique qu'a pris le secteur. Les États-Unis cherchent avant tout à préserver leur avance sur la Chine dans la course aux modèles frontières, et les entreprises, de leur côté, ont tout intérêt à s'afficher comme des partenaires responsables de l'État plutôt que comme des acteurs incontrôlables. La question centrale qui émerge de cet accord est celle du contrôle réel : évaluer un modèle avant son lancement n'est pas nécessairement le réguler, et la frontière entre supervision de sécurité et ingérence politique reste, pour l'instant, soigneusement laissée dans le flou.

Impact France/UE

Ce cadre américain d'évaluation pré-déploiement pourrait servir de référence pour l'interprétation des obligations GPAI de l'AI Act européen, mais n'a pas d'effet direct sur les entreprises ou institutions françaises à ce stade.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Google, Microsoft et xAI autorisent le gouvernement américain à examiner leurs nouveaux modèles d'IA
1The Verge AI 

Google, Microsoft et xAI autorisent le gouvernement américain à examiner leurs nouveaux modèles d'IA

Google DeepMind, Microsoft et xAI, la société d'intelligence artificielle d'Elon Musk, ont accepté de soumettre leurs nouveaux modèles d'IA à une évaluation gouvernementale avant tout déploiement public. L'annonce, faite mardi par le Centre pour les standards et l'innovation en IA (CAISI) du département américain du Commerce, prévoit des "évaluations pré-déploiement et des recherches ciblées" pour mieux mesurer les capacités des modèles dits frontières. Le CAISI, qui travaille avec OpenAI et Anthropic depuis 2024, revendique déjà 40 évaluations réalisées à ce jour. Ces partenariats représentent un mécanisme de surveillance inédit sur les systèmes d'IA les plus puissants du monde, donnant aux autorités fédérales américaines un accès anticipé à des technologies qui n'ont encore jamais été soumises à un contrôle institutionnel systématique avant leur commercialisation. Pour l'industrie, cela signifie une normalisation progressive du contrôle gouvernemental comme étape du cycle de développement, ce qui pourrait influencer les pratiques mondiales et peser sur les délais de mise sur le marché. OpenAI et Anthropic ont par ailleurs renégocié leurs accords existants avec le CAISI pour mieux les aligner sur les priorités de l'administration Trump, dont la position sur la régulation de l'IA s'est voulue plus souple que celle de son prédécesseur, mais qui cherche néanmoins à garder la main sur les développements stratégiques du secteur. Ces initiatives s'inscrivent dans une compétition technologique mondiale exacerbée, notamment face à la Chine, où l'accès gouvernemental aux modèles frontières est présenté comme un impératif de sécurité nationale autant que de compétitivité.

UECe mécanisme américain de contrôle pré-déploiement pourrait servir de référence pour les autorités européennes dans l'application de l'AI Act, notamment pour les évaluations obligatoires des modèles frontières à haut risque.

💬 Quarante évaluations réalisées, et personne n'en avait entendu parler. C'est le genre d'accord qui se vend comme de la transparence mais qui sert surtout à donner au gouvernement américain un regard en avance sur ce qui sort, dans une logique de sécurité nationale plus que de protection des utilisateurs. Si l'UE s'en inspire pour l'AI Act, bon, ça pourrait au moins donner un cadre concret à ces évaluations frontières qu'on attend depuis des mois.

RégulationReglementation
1 source
2Next INpact 

L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche

La Commission européenne a intensifié sa pression sur les géants américains du numérique au cours de la semaine du 14 avril 2026, en ciblant simultanément Meta et Google dans deux dossiers distincts liés à la concurrence sur les marchés de l'intelligence artificielle. Concernant Meta, la Commission a ouvert une procédure formelle fin 2025 pour pratiques anticoncurrentielles, estimant en février 2026 que l'entreprise avait enfreint les règles européennes en bloquant l'accès des assistants d'IA tiers à WhatsApp. Face à cette mise en cause, Meta a soumis le 2 mars 2026 une politique révisée censée lever l'interdiction, mais en introduisant un cadre tarifaire applicable aux assistants d'IA concurrents. La Commission a rejeté cette proposition, jugeant qu'elle produisait le même effet d'exclusion que la politique initiale. Elle a donc adressé à Meta une nouvelle série de griefs formels et annoncé son intention d'imposer des mesures provisoires pour prévenir tout préjudice grave et irréparable sur le marché pendant la durée de l'enquête. Dans le dossier Google, la Commission a proposé des mesures portant sur le partage des données issues du moteur de recherche, sans que les détails aient été pleinement rendus publics. Ces actions illustrent une préoccupation centrale des régulateurs européens : la capacité des plateformes dominantes à verrouiller l'accès aux marchés émergents de l'IA. En contrôlant l'interopérabilité de WhatsApp, Meta peut théoriquement déterminer quels assistants d'IA ont une chance de se développer à grande échelle en Europe, et à quel prix. Les mesures provisoires, si elles entrent en vigueur, auraient un effet immédiat : elles s'appliqueraient jusqu'à la conclusion de l'enquête, contraignant Meta à maintenir des conditions d'accès équitables pour ses concurrents indépendamment de l'issue finale du dossier. Pour les développeurs d'assistants d'IA tiers cherchant à atteindre les deux milliards d'utilisateurs de WhatsApp, l'enjeu est considérable. Ces procédures s'inscrivent dans une stratégie réglementaire européenne cohérente, bâtie sur le Digital Markets Act entré en application en mars 2024, qui désigne les grandes plateformes comme "gatekeepers" soumis à des obligations d'interopérabilité et d'accès équitable. La Commission a déjà ouvert plusieurs enquêtes similaires contre Apple, Alphabet et Amazon. Le cas Meta est notable car il concerne directement la bataille pour l'écosystème des assistants IA, un marché en croissance rapide où chaque point d'entrée compte. Google, de son côté, fait face à des exigences de partage de données de recherche qui pourraient restructurer l'accès à des signaux clés pour l'entraînement et l'amélioration des modèles. La réponse de Meta aux derniers griefs est attendue dans les prochaines semaines, avant une éventuelle décision formelle de la Commission.

UELes mesures provisoires de la Commission pourraient forcer Meta à ouvrir WhatsApp aux assistants d'IA tiers à des conditions équitables, restructurant directement l'accès au marché européen des assistants IA pour les développeurs et startups européens.

💬 Meta a essayé de remplacer un blocage par un péage, et la Commission n'a pas mordu. C'est exactement le genre de manœuvre qu'on attendait : impossible d'ouvrir sans essayer de monétiser l'ouverture en même temps, bon, au moins c'est cohérent avec leur logique. Les mesures provisoires, si elles passent, changent vraiment la donne pour quiconque veut distribuer un assistant IA en Europe sans passer à la caisse de WhatsApp.

RégulationReglementation
1 source
Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts
3Ars Technica AI 

Ce qui pourrait mal tourner avec les tests de sécurité de l'IA de Trump, selon des experts

L'administration Trump a conclu des accords cette semaine avec Google DeepMind, Microsoft et xAI pour soumettre leurs modèles d'IA de pointe à des contrôles de sécurité gouvernementaux, avant et après leur mise sur le marché. Ce revirement survient après que Donald Trump avait ouvertement balayé les politiques héritées de l'ère Biden, qualifiant les vérifications volontaires de surréglementation freinant l'innovation. Il avait même rebaptisé l'AI Safety Institute en Centre pour les Standards et l'Innovation de l'IA (CAISI), supprimant délibérément le mot "sécurité" dans un geste symbolique adressé à son prédécesseur. Selon Kevin Hassett, directeur du Conseil économique national de la Maison Blanche, Trump envisagerait désormais de signer un décret présidentiel rendant ces tests obligatoires avant tout déploiement de systèmes d'IA avancés. Ce changement de cap brutal illustre les tensions croissantes autour des modèles les plus puissants. Il intervient directement après qu'Anthropic a annoncé suspendre la sortie de son dernier modèle, Claude Mythos, estimant que ses capacités avancées en cybersécurité représentaient un risque trop élevé d'exploitation par des acteurs malveillants. Cette décision a visiblement ébranlé la Maison Blanche, qui semblait jusqu'ici peu préoccupée par la question. L'engagement de trois géants technologiques dans un dispositif de vérification officiel marque un tournant potentiellement structurant pour la gouvernance de l'IA aux États-Unis, à un moment où les modèles frontier franchissent de nouveaux seuils de capacité. Ce volte-face s'inscrit dans une tension plus large au sein de l'administration Trump entre l'impératif de compétitivité technologique face à la Chine et la gestion des risques concrets posés par des systèmes toujours plus autonomes. Depuis son retour à la Maison Blanche, Trump avait adopté une posture délibérément permissive sur la régulation de l'IA, cherchant à attirer investissements et talents. Mais la décision d'Anthropic de bloquer la sortie de Claude Mythos a rendu intenable l'absence totale de cadre fédéral. Si un décret est finalement signé, il pourrait redéfinir le rôle du CAISI et établir un précédent sur la manière dont Washington entend superviser les technologies les plus sensibles de la prochaine décennie.

UEUn cadre fédéral américain obligatoire de tests pré-déploiement créerait une pression normative internationale et pourrait influencer l'interprétation pratique de l'AI Act européen sur les obligations de contrôle des modèles frontier.

💬 Ce qui a mis Trump en mouvement, c'est Anthropic qui a bloqué son propre modèle, pas une campagne de lobbying ou un rapport du Congrès. Quand les labos eux-mêmes freinent des deux pieds parce que leurs outils font trop peur, l'absence de cadre fédéral devient indéfendable, et même Washington le voit. Reste à voir si ces tests ont des dents ou si c'est du tampon de complaisance.

RégulationReglementation
1 source
Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale
4The Decoder 

Le gouvernement américain obtient un accès pré-déploiement aux modèles IA de cinq grands laboratoires à des fins de sécurité nationale

Le Département américain du Commerce vient d'élargir son programme d'accès anticipé aux modèles d'intelligence artificielle développés par les principaux laboratoires du secteur. Après Anthropic et OpenAI, trois nouvelles entreprises ont rejoint le dispositif : Google DeepMind, Microsoft et xAI, la startup d'Elon Musk. Ces acteurs ont signé des accords avec le Center for AI Standards and Innovation (CASI), une entité rattachée au National Institute of Standards and Technology. Concrètement, ils fournissent au gouvernement des versions de leurs modèles dont les garde-fous de sécurité ont été partiellement désactivés, pour permettre des évaluations approfondies dans des environnements classifiés. Cet accès privilégié permet aux agences fédérales d'examiner les capacités réelles de ces systèmes avant leur mise sur le marché, y compris leurs potentiels d'utilisation malveillante. En supprimant les filtres habituels, les testeurs gouvernementaux peuvent sonder les limites des modèles d'une façon que les versions publiques ne permettent pas : identifier des failles exploitables, simuler des scénarios de cyberattaque, ou évaluer les risques liés à la divulgation d'informations sensibles. C'est une rupture significative dans la manière dont l'État supervise ces technologies. Cette expansion s'inscrit dans un contexte de concurrence technologique croissante avec la Chine et de risques cybersécurité liés à l'IA en forte hausse. Washington cherche à établir des standards nationaux solides avant que ces systèmes ne se diffusent à grande échelle. Le fait que cinq des principaux laboratoires mondiaux participent désormais à ce programme signale une convergence inédite entre industrie privée et sécurité nationale, qui pourrait préfigurer un modèle de gouvernance applicable bien au-delà des frontières américaines.

UECe programme américain de supervision pré-déploiement pourrait servir de référence aux autorités européennes qui définissent encore les modalités concrètes d'évaluation des modèles à haut risque dans le cadre de l'AI Act.

💬 C'est le genre d'accord qu'on imaginait se faire dans l'ombre depuis des années, et là c'est officialisé. Cinq labos fournissent des versions sans filtres pour que le gouvernement cherche les failles, ce qui est probablement plus rassurant que l'alternative (tout le monde faisant semblant que ça n'existe pas). Ce qui m'intéresse maintenant, c'est de voir si Bruxelles va copier le modèle ou s'inventer une usine à gaz de plus.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour