Le gouvernement américain diversifie ses fournisseurs d'IA et reconsidère le rôle d'Anthropic
Le Pentagone a officialisé des partenariats avec quatre nouveaux fournisseurs d'intelligence artificielle le 6 mai 2026 : Microsoft, Amazon, Nvidia, et Reflection AI, une startup qui n'a encore publié aucun modèle accessible au grand public. Ces entreprises rejoignent OpenAI, xAI et Google dans un cercle restreint de prestataires autorisés à déployer leurs technologies pour "tout usage légal" au sein des forces armées américaines, y compris sur des données classifiées aux niveaux les plus sensibles, dits Impact Level 6 (secret) et Impact Level 7 (très secret défense). Ce mouvement intervient quelques semaines après la rupture fracassante entre le Pentagone et Anthropic : le département de la Défense avait annulé un contrat de 200 millions de dollars avec la startup, qualifiant publiquement l'entreprise de "risque pour la chaîne d'approvisionnement", une première pour une société américaine. Anthropic avait aussitôt contesté cette décision en justice, réclamant des millions en revenus perdus, après que son PDG Dario Amodei s'était opposé à la formule "tout usage légal", estimant qu'elle ouvrait la porte à la surveillance de civils américains et au développement d'armes autonomes.
L'élargissement du portefeuille de fournisseurs militaires réduit mécaniquement la dépendance du Pentagone à l'égard de n'importe quel acteur individuel. Si un dirigeant comme Amodei pose des conditions éthiques, l'armée peut simplement se tourner vers des concurrents moins regardants. Le Pentagone l'a d'ailleurs formulé sans détour : l'objectif est de "bâtir une architecture qui prévient le verrouillage sur un fournisseur unique." Concrètement, les nouveaux outils doivent permettre aux forces armées de "synthétiser les données", d'"élever la compréhension situationnelle" et d'"augmenter la prise de décision des combattants dans des environnements opérationnels complexes", une formulation qui laisse ouverte la question des déploiements sur le territoire américain. Google et Amazon avaient déjà licencié des employés qui protestaient contre l'usage militaire de leurs technologies, signalant que ces entreprises n'ont pas l'intention de répéter la résistance publique d'Anthropic.
Le tableau reste pourtant plus nuancé qu'il n'y paraît. Le modèle Mythos d'Anthropic serait actuellement utilisé par la NSA dans le cadre de capacités de cyberguerre et de cyberdéfense, et est en cours d'évaluation par 40 organisations dans le monde, dont seulement 12 nommées publiquement, le MI5 britannique et la NSA figurant parmi les 28 restantes. Le modèle de codage Claude d'Anthropic serait aussi toujours actif au sein d'agences gouvernementales américaines malgré la crise. Selon Axios, qui cite une source à la Maison-Blanche, l'administration Trump chercherait désormais un moyen de "sauver la face et de les ramener dans le giron." La rupture serait donc davantage tactique que définitive, dans un secteur où la dépendance à l'IA militaire s'accélère et où aucun acteur ne peut vraiment se permettre d'être exclu du plus grand client du monde.
Le MI5 britannique figure parmi les agences évaluant le modèle Mythos d'Anthropic dans un programme mondial impliquant 40 organisations, signalant un intérêt croissant des services de renseignement européens pour ces technologies d'IA à usage militaire.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



