Aller au contenu principal
RégulationThe Verge AI1h

Google, Microsoft et xAI autorisent le gouvernement américain à examiner leurs nouveaux modèles d'IA

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Google DeepMind, Microsoft et xAI, la société d'intelligence artificielle d'Elon Musk, ont accepté de soumettre leurs nouveaux modèles d'IA à une évaluation gouvernementale avant tout déploiement public. L'annonce, faite mardi par le Centre pour les standards et l'innovation en IA (CAISI) du département américain du Commerce, prévoit des "évaluations pré-déploiement et des recherches ciblées" pour mieux mesurer les capacités des modèles dits frontières. Le CAISI, qui travaille avec OpenAI et Anthropic depuis 2024, revendique déjà 40 évaluations réalisées à ce jour.

Ces partenariats représentent un mécanisme de surveillance inédit sur les systèmes d'IA les plus puissants du monde, donnant aux autorités fédérales américaines un accès anticipé à des technologies qui n'ont encore jamais été soumises à un contrôle institutionnel systématique avant leur commercialisation. Pour l'industrie, cela signifie une normalisation progressive du contrôle gouvernemental comme étape du cycle de développement, ce qui pourrait influencer les pratiques mondiales et peser sur les délais de mise sur le marché.

OpenAI et Anthropic ont par ailleurs renégocié leurs accords existants avec le CAISI pour mieux les aligner sur les priorités de l'administration Trump, dont la position sur la régulation de l'IA s'est voulue plus souple que celle de son prédécesseur, mais qui cherche néanmoins à garder la main sur les développements stratégiques du secteur. Ces initiatives s'inscrivent dans une compétition technologique mondiale exacerbée, notamment face à la Chine, où l'accès gouvernemental aux modèles frontières est présenté comme un impératif de sécurité nationale autant que de compétitivité.

Impact France/UE

Ce mécanisme américain de contrôle pré-déploiement pourrait servir de référence pour les autorités européennes dans l'application de l'AI Act, notamment pour les évaluations obligatoires des modèles frontières à haut risque.

💬 Le point de vue du dev

Quarante évaluations réalisées, et personne n'en avait entendu parler. C'est le genre d'accord qui se vend comme de la transparence mais qui sert surtout à donner au gouvernement américain un regard en avance sur ce qui sort, dans une logique de sécurité nationale plus que de protection des utilisateurs. Si l'UE s'en inspire pour l'AI Act, bon, ça pourrait au moins donner un cadre concret à ces évaluations frontières qu'on attend depuis des mois.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve
1Next INpact 

Entrainement des IA et droit d’auteur : le Sénat inverse la charge de la preuve

Le Sénat français a adopté à l'unanimité, le 8 avril 2026, une proposition de loi instaurant une présomption d'utilisation des contenus culturels protégés par le droit d'auteur lors de l'entraînement des systèmes d'intelligence artificielle. Portée par la sénatrice Agnès Evren (LR), le texte dispose que toute œuvre protégée par un droit d'auteur ou un droit voisin est présumée avoir été utilisée par un fournisseur d'IA dès lors qu'un indice rend cette utilisation vraisemblable, par exemple, si un chatbot est capable de citer des extraits d'un livre. En cas de contentieux, ce ne sera donc plus au créateur de prouver que son œuvre a été moissonnée, mais à l'opérateur de l'IA de démontrer qu'il ne l'a pas utilisée de façon irrégulière. La proposition doit désormais passer en première lecture à l'Assemblée nationale. Ce renversement de la charge de la preuve modifie structurellement le rapport de force entre ayants droit et géants technologiques. Jusqu'ici, les créateurs, auteurs, éditeurs, musiciens, journalistes, se trouvaient dans l'impossibilité pratique de prouver que leurs œuvres avaient servi à entraîner des modèles dont les données d'entraînement restent opaques, souvent protégées par le secret des affaires. La nouvelle présomption leur offre un levier juridique concret : obliger les entreprises d'IA à justifier leurs pratiques devant un tribunal, ou, mieux, à négocier des accords de licence en amont pour éviter les procédures. Pour l'industrie de l'IA, cela implique une pression accrue vers la transparence sur les corpus d'entraînement, avec des conséquences potentielles sur les modèles entraînés massivement sur du contenu web non licencié. La proposition s'inscrit dans un mouvement plus large de régulation du rapport entre IA et propriété intellectuelle. Au niveau européen, le rapport de l'eurodéputé Alex Voss, voté le 11 mars 2026 au Parlement européen, recommandait déjà d'instaurer une présomption réfragable similaire, bien que limitée aux cas de non-respect des obligations de transparence prévues par l'AI Act. Le Sénat français va donc plus loin que Bruxelles, ce qui n'a pas manqué de susciter des réserves du côté du gouvernement : les ministres de la Culture et du Numérique ont mis en garde contre les risques de judiciarisation excessive et d'insécurité juridique, préférant privilégier la voie de la négociation. Ce débat illustre la tension persistante entre la nécessité de protéger la création culturelle et celle de ne pas entraver le développement d'une industrie dans laquelle la France et l'Europe cherchent à peser face aux acteurs américains et chinois.

UELes fournisseurs d'IA opérant en France devront désormais prouver qu'ils n'ont pas utilisé irrégulièrement des œuvres protégées, sous peine de contentieux, ce qui les pousse à négocier des licences ou à documenter leurs corpus d'entraînement pour le marché français et, potentiellement, européen.

💬 C'est le renversement qu'on attendait depuis que les premiers procès ont calé faute de preuves. Obliger les opérateurs à justifier leurs corpus plutôt que d'imposer aux créateurs de prouver le pillage, c'est enfin remettre la charge du côté qui a les moyens de l'assumer. Reste à voir ce que l'Assemblée en fait, et si le gouvernement ne vide pas le texte de sa substance sous prétexte de "compétitivité".

RégulationReglementation
1 source
« L’Europe doit montrer la voie en matière de gouvernance des armes autonomes et de l’IA militaire »
2Le Monde Pixels 

« L’Europe doit montrer la voie en matière de gouvernance des armes autonomes et de l’IA militaire »

Vincent Boulanin, chercheur spécialisé dans les technologies militaires, a publié une tribune dans Le Monde appelant les gouvernements européens à prendre le leadership mondial sur la gouvernance de l'intelligence artificielle militaire et des armes autonomes. Sa thèse centrale : les États-Unis, sous l'administration actuelle, se désengagent progressivement des cadres multilatéraux de régulation qu'ils avaient eux-mêmes contribué à établir ces dernières années, laissant un vide stratégique que l'Europe doit combler. Ce retrait américain n'est pas anodin. La gouvernance de l'IA militaire — qui encadre notamment le développement des systèmes d'armes létaux autonomes, capables de sélectionner et d'engager des cibles sans intervention humaine — est un enjeu à la fois éthique, stratégique et économique. Boulanin argue que les pays européens ont tout à gagner à s'imposer comme référents dans ce domaine : cela renforcerait leur crédibilité diplomatique, orienterait les normes internationales dans un sens compatible avec leurs valeurs, et positionnerait leur industrie de défense sur un marché en pleine expansion. Le contexte est celui d'une course mondiale à l'armement autonome, où la Chine, la Russie et les États-Unis investissent massivement, tandis que les négociations onusiennes sur un traité contraignant piétinent depuis des années. L'Europe, notamment via des initiatives portées à l'ONU et au sein de l'UE, a déjà esquissé des positions ambitieuses. Boulanin les invite à ne pas renoncer à cette ambition sous prétexte de pragmatisme ou de pression des alliés — car l'absence de règles du jeu claires dans ce domaine pourrait avoir des conséquences durables sur la stabilité internationale.

UEL'article interpelle directement les gouvernements européens pour qu'ils prennent le leadership sur la gouvernance de l'IA militaire et des armes autonomes, ce qui aurait des conséquences concrètes sur la politique de défense de l'UE et le positionnement de l'industrie de défense européenne dans un marché en pleine expansion.

RégulationReglementation
1 source
Microsoft lance 3 nouveaux modèles d'IA pour rivaliser avec OpenAI et Google
3VentureBeat AI 

Microsoft lance 3 nouveaux modèles d'IA pour rivaliser avec OpenAI et Google

Microsoft a lancé mercredi trois nouveaux modèles d'intelligence artificielle développés entièrement en interne : MAI-Transcribe-1, un système de transcription vocale, MAI-Voice-1, un moteur de synthèse vocale, et MAI-Image-2, un générateur d'images amélioré. Disponibles immédiatement via Microsoft Foundry et un nouveau MAI Playground, ces modèles positionnent le géant du logiciel — valorisé 3 000 milliards de dollars — en concurrent direct d'OpenAI, Google et ElevenLabs sur le terrain du développement de modèles fondamentaux, et plus seulement sur leur distribution. MAI-Transcribe-1 affiche un taux d'erreur moyen de 3,8 % sur le benchmark FLEURS dans les 25 langues les plus utilisées dans les produits Microsoft, surpassant Whisper-large-v3 d'OpenAI sur l'ensemble de ces langues, et Gemini Flash de Google sur 22 d'entre elles. Le modèle traite les fichiers MP3, WAV et FLAC jusqu'à 200 Mo, avec une vitesse de transcription 2,5 fois supérieure à l'offre Azure actuelle, tout en consommant deux fois moins de GPU que la concurrence selon Microsoft. MAI-Voice-1 génère 60 secondes d'audio naturel en une seconde, à 22 dollars par million de caractères. MAI-Image-2, classé dans le top 3 sur Arena.ai, est déployé dans Bing et PowerPoint à 33 dollars par million de tokens image, et compte déjà WPP, le plus grand groupe publicitaire mondial, parmi ses premiers clients entreprise. Ces trois modèles constituent la première réponse concrète de Microsoft à une pression considérable des investisseurs : l'action vient de clôturer son pire trimestre depuis la crise financière de 2008, alors que des centaines de milliards de dépenses en infrastructure IA tardent à se traduire en revenus. En développant ses propres modèles, Microsoft réduit son coût de revient en remplaçant progressivement les modèles tiers — à commencer par une intégration de MAI-Transcribe-1 dans Copilot Voice et Microsoft Teams. La stratégie d'« autosuffisance en IA », formulée par Mustafa Suleyman, patron de Microsoft AI, vise à transformer l'entreprise d'un distributeur de technologie externe en producteur de modèles de pointe. Ce pivot n'aurait pas été possible sans un changement contractuel majeur survenu en octobre 2025. Le contrat originel de 2019 entre Microsoft et OpenAI interdisait explicitement à Microsoft de développer ses propres modèles d'intelligence artificielle générale en échange d'une licence sur les modèles d'OpenAI. La renégociation de cet accord a libéré Microsoft, qui a aussitôt constitué une équipe dédiée à la superintelligence — celle-là même qui vient de produire ces premiers résultats en six mois seulement. L'enjeu dépasse le seul marché de la transcription ou des images : Microsoft cherche à ne plus dépendre d'un partenaire unique pour alimenter ses produits phares, à l'heure où la compétition entre labs frontier s'intensifie et où chaque point de marge compte face à des coûts d'infrastructure colossaux.

UELes développeurs et entreprises européens peuvent accéder immédiatement à ces modèles via Microsoft Foundry, avec un impact potentiel sur les choix de fournisseurs pour la transcription vocale, la synthèse et la génération d'images dans les produits Microsoft déjà largement déployés en Europe.

💬 Ce qui me frappe dans cette news, c'est pas les benchmarks, c'est la clause contractuelle de 2019 qu'on découvre en passant : pendant six ans, Microsoft était littéralement interdit de construire ses propres modèles. Six ans à jouer le revendeur d'OpenAI. La renégociation d'octobre dernier change tout, et six mois plus tard ils sortent trois modèles qui tiennent la route. Reste à voir si c'est le début d'une vraie indépendance ou juste un argument de plus pour les actionnaires.

BusinessOpinion
1 source
Le Pentagone est-il autorisé à surveiller les Américains grâce à l'IA ?
4MIT Technology Review 

Le Pentagone est-il autorisé à surveiller les Américains grâce à l'IA ?

Le conflit entre le Pentagone et Anthropic a mis en lumière l'ambiguïté légale concernant la surveillance de masse par l'AI aux États-Unis, après que le Pentagone a voulu utiliser l'IA Claude pour analyser des données commerciales, ce qui a conduit Anthropic à refuser et à être classé comme risque pour la chaîne d'approvisionnement. En parallèle, OpenAI a signé un accord avec le Pentagone permettant l'utilisation de son IA pour des "usages légaux", suscitant des protestations avant de réviser son contrat pour exclure la surveillance domestique. La question reste ouverte sur la légalité de cette pratique, avec des experts soulignant que la loi ne considère pas toujours comme de la surveillance certaines pratiques comme l'analyse de données publiques ou commerciales.

RégulationOpinion
1 source