Google, Microsoft et xAI autorisent le gouvernement américain à examiner leurs nouveaux modèles d'IA
Google DeepMind, Microsoft et xAI, la société d'intelligence artificielle d'Elon Musk, ont accepté de soumettre leurs nouveaux modèles d'IA à une évaluation gouvernementale avant tout déploiement public. L'annonce, faite mardi par le Centre pour les standards et l'innovation en IA (CAISI) du département américain du Commerce, prévoit des "évaluations pré-déploiement et des recherches ciblées" pour mieux mesurer les capacités des modèles dits frontières. Le CAISI, qui travaille avec OpenAI et Anthropic depuis 2024, revendique déjà 40 évaluations réalisées à ce jour.
Ces partenariats représentent un mécanisme de surveillance inédit sur les systèmes d'IA les plus puissants du monde, donnant aux autorités fédérales américaines un accès anticipé à des technologies qui n'ont encore jamais été soumises à un contrôle institutionnel systématique avant leur commercialisation. Pour l'industrie, cela signifie une normalisation progressive du contrôle gouvernemental comme étape du cycle de développement, ce qui pourrait influencer les pratiques mondiales et peser sur les délais de mise sur le marché.
OpenAI et Anthropic ont par ailleurs renégocié leurs accords existants avec le CAISI pour mieux les aligner sur les priorités de l'administration Trump, dont la position sur la régulation de l'IA s'est voulue plus souple que celle de son prédécesseur, mais qui cherche néanmoins à garder la main sur les développements stratégiques du secteur. Ces initiatives s'inscrivent dans une compétition technologique mondiale exacerbée, notamment face à la Chine, où l'accès gouvernemental aux modèles frontières est présenté comme un impératif de sécurité nationale autant que de compétitivité.
Ce mécanisme américain de contrôle pré-déploiement pourrait servir de référence pour les autorités européennes dans l'application de l'AI Act, notamment pour les évaluations obligatoires des modèles frontières à haut risque.
Quarante évaluations réalisées, et personne n'en avait entendu parler. C'est le genre d'accord qui se vend comme de la transparence mais qui sert surtout à donner au gouvernement américain un regard en avance sur ce qui sort, dans une logique de sécurité nationale plus que de protection des utilisateurs. Si l'UE s'en inspire pour l'AI Act, bon, ça pourrait au moins donner un cadre concret à ces évaluations frontières qu'on attend depuis des mois.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




