Aller au contenu principal
IA de guerre : le Pentagone crée sa propre alternative à Anthropic
RégulationLe Big Data6sem

IA de guerre : le Pentagone crée sa propre alternative à Anthropic

Résumé IASource uniqueImpact UE
Source originale ↗·

Le Pentagone développe ses propres modèles d'intelligence artificielle après la rupture avec Anthropic. C'est Cameron Stanley, Chief Digital and Artificial Intelligence Officer (CDAO) du département de la Défense américain, qui l'a confirmé auprès de Bloomberg. Ce virage stratégique marque une étape inédite : pour la première fois, l'armée américaine choisit de produire en interne ses propres systèmes de langage plutôt que de dépendre exclusivement de fournisseurs civils.

Le conflit avec Anthropic est à l'origine de cette décision. La société avait imposé des restrictions claires sur l'usage de son IA Claude : pas de surveillance de masse des citoyens, pas d'armements autonomes capables de tirer sans intervention humaine. Des lignes rouges que le CDAO a refusé d'accepter, exigeant un accès total, y compris sur des réseaux classifiés. Fin février 2026, le Pentagone a posé un ultimatum de 72 heures à Anthropic pour lever ces restrictions — sous peine de perdre un contrat de 200 millions de dollars et d'être placé sur liste noire. Anthropic n'a pas cédé.

Les nouveaux modèles du Pentagone seront intégrés directement dans des environnements gouvernementaux sécurisés, reprenant ainsi le contrôle total sur les données, les usages et les limites d'emploi. Stanley reste discret sur les détails techniques, mais laisse entendre que les premiers déploiements sont imminents. Parallèlement, le DoD maintient ses partenariats avec OpenAI — dont un accord prévoit le déploiement de modèles sur réseaux classifiés avec supervision d'ingénieurs de la firme — et avec xAI d'Elon Musk.

Cette stratégie d'autonomisation présente néanmoins des défis considérables : développer des modèles compétitifs exige des ressources massives et une expertise rare, même pour une organisation de l'envergure du Pentagone. Le choix de conserver OpenAI et xAI en parallèle suggère que l'objectif n'est pas de tout internaliser, mais de ne plus jamais se retrouver tributaire d'un acteur privé capable de dire non.

Impact France/UE

Le développement d'IA militaire souveraine par le Pentagone accentue la pression sur l'UE pour définir sa propre doctrine d'usage de l'IA dans le secteur défense, notamment dans le cadre du règlement IA Act qui encadre les systèmes à haut risque.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic
1MIT Technology Review 

Les outils IA pour la santé et la guerre culturelle du Pentagone contre Anthropic

Un juge américain a temporairement bloqué une décision du Pentagone qui cherchait à qualifier Anthropic de risque pour la chaîne d'approvisionnement et à interdire aux agences gouvernementales d'utiliser ses technologies d'intelligence artificielle. Cette intervention judiciaire met fin, au moins provisoirement, à une confrontation qui avait rapidement dégénéré : le gouvernement avait court-circuité les procédures habituelles de gestion des litiges et amplifié la polémique sur les réseaux sociaux, transformant un différend administratif en bras de fer public. Parallèlement, Microsoft, Amazon et OpenAI ont chacun lancé ces derniers mois des chatbots médicaux destinés au grand public, un mouvement qui révèle une demande croissante face aux difficultés d'accès aux soins, mais qui soulève des inquiétudes quant à l'absence d'évaluation externe sérieuse avant leur mise sur le marché. Ces deux affaires illustrent une tension de fond dans l'écosystème de l'IA : entre la vitesse de déploiement des outils et la robustesse des garde-fous qui les encadrent. Dans le domaine médical, des recommandations erronées ou biaisées délivrées à des millions d'utilisateurs vulnérables pourraient avoir des conséquences sanitaires graves, sans que les régulateurs n'aient eu le temps d'évaluer ces systèmes. Dans le secteur gouvernemental, l'affaire Anthropic montre que l'instrumentalisation politique de questions techniques peut nuire à la crédibilité des institutions et fragiliser des partenariats stratégiques dans un secteur où les États-Unis cherchent à maintenir leur avance mondiale. Ce contexte s'inscrit dans une période de turbulences réglementaires aux États-Unis : la Californie a adopté de nouvelles normes sur l'IA malgré l'opposition de l'administration Trump, qui avait demandé aux États de suspendre leurs initiatives en la matière — une résistance qui préfigure un conflit fédéral-état durable. Par ailleurs, les grandes entreprises technologiques font face à une double pression : leurs investissements cumulés dans l'IA dépassent 635 milliards de dollars, mais la crise énergétique liée aux tensions au Moyen-Orient menace leurs plans d'expansion des datacenters. Dans ce tableau, la société finlandaise Nebius annonce un centre de données IA de 10 milliards de dollars en Finlande, signe que l'Europe cherche à s'imposer dans la course aux infrastructures. L'ensemble de ces signaux converge vers une même réalité : l'IA entre dans une phase de maturité où les décisions techniques, politiques et économiques sont désormais indissociables.

UELa société finlandaise Nebius annonce un datacenter IA de 10 milliards de dollars en Finlande, renforçant la position européenne dans la course aux infrastructures IA.

RégulationReglementation
1 source
Le retournement de la stratégie du Pentagone contre Anthropic
2MIT Technology Review 

Le retournement de la stratégie du Pentagone contre Anthropic

Un juge fédéral californien, Rita Lin, a temporairement bloqué jeudi dernier le Pentagone dans sa tentative de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation qui aurait contraint toutes les agences gouvernementales à cesser d'utiliser ses outils d'IA. Dans une opinion de 43 pages, la juge a suspendu cette décision, interdit au Pentagone de l'appliquer et invalidé les promesses publiques faites par le secrétaire à la Défense Pete Hegseth et le président Donald Trump. Le gouvernement dispose de sept jours pour faire appel, et une deuxième procédure intentée par Anthropic reste en suspens. La start-up, cofondée par Dario Amodei, avait fourni son modèle Claude à des employés du Pentagone via Palantir pendant une grande partie de 2025, dans le cadre d'une politique d'utilisation gouvernementale spécifique interdisant notamment la « surveillance de masse des Américains » et la « guerre autonome létale », selon une déclaration sous serment du cofondateur Jared Kaplan. La rupture ne résulte pas d'un incident technique ou d'une faille de sécurité, mais d'un désaccord contractuel survenu lorsque le gouvernement a voulu traiter directement avec Anthropic — et d'une réponse politique qui a rapidement dérapé. Le 27 février, Trump a publié sur Truth Social un message dénonçant les « gauchistes fous » d'Anthropic et ordonné à toutes les agences fédérales de cesser d'utiliser ses produits. Hegseth a emboîté le pas en annonçant la désignation « supply chain risk ». Or la juge Lin a constaté que Hegseth n'avait pas suivi les procédures légales requises pour activer cette désignation : les lettres envoyées aux comités du Congrès affirmaient que des mesures moins radicales avaient été évaluées, sans fournir le moindre détail. Les avocats du gouvernement ont également dû admettre qu'ils n'avaient aucune preuve de l'existence d'un supposé « kill switch » qu'Anthropic aurait pu activer pour couper l'accès au gouvernement — argument central de la désignation. Pire, ils ont reconnu que l'ordre d'Hegseth interdisant à tout prestataire de « faire des affaires avec Anthropic » n'avait « absolument aucun effet juridique ». Cette affaire illustre une tension structurelle croissante entre l'administration Trump et les grandes entreprises d'IA qui refusent d'aligner leur politique sur les priorités idéologiques de Washington. Anthropic se trouve dans une position particulièrement délicate : elle est l'une des rares entreprises du secteur à avoir explicitement ancré la sécurité dans son identité commerciale, tout en cherchant à décrocher des contrats de défense. La juge a conclu que le gouvernement cherchait à « punir publiquement Anthropic pour son idéologie », ce qui constitue une atteinte au premier amendement. Le dossier n'est pas clos — l'appel possible et la seconde procédure maintiennent une incertitude réelle — mais la reculade judiciaire du Pentagone envoie un signal fort : utiliser des désignations de sécurité nationale comme levier de pression politique contre des entreprises privées reste juridiquement risqué, surtout quand les tweets précèdent les arguments juridiques.

💬 Le gouvernement n'avait aucune preuve du kill switch, n'a pas suivi les procédures légales, et a lancé la désignation quand même. Un tweet de Trump, une lettre vague au Congrès, des arguments que les avocats eux-mêmes ont reconnus sans effet juridique : c'est pas une stratégie, c'est de la panique. Anthropic voulait les contrats de défense sans plier sur sa politique d'usage, et là on voit ce que ça coûte vraiment.

RégulationReglementation
1 source
Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire
3FrenchWeb 

Le Pentagone contre ANTHROPIC : quand l’État refuse que la Silicon Valley dicte les règles de l’IA militaire

Anthropic a engagé une procédure judiciaire contre le Département de la Défense américain (Pentagone), marquant une première historique : un laboratoire d'IA refusant les conditions imposées par une armée. Ce conflit illustre la tension croissante entre les entreprises de la Silicon Valley et l'État américain sur qui dicte les règles d'utilisation de l'IA dans le domaine militaire. L'IA est désormais considérée comme une infrastructure stratégique par les gouvernements, rendant ce bras de fer particulièrement significatif.

RégulationActu
1 source
La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge
4Wired AI 

La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge

Un juge fédéral a remis en question les motivations du Département de la Défense américain, qui a classifié Anthropic — le développeur du modèle Claude — comme un risque pour la chaîne d'approvisionnement. Lors d'une audience mardi, le juge a qualifié cette démarche de tentative de "paralyser" l'entreprise. L'affaire soulève des interrogations sur l'utilisation des procédures de sécurité nationale à des fins potentiellement anticoncurrentielles.

UECette affaire illustre les risques d'instrumentalisation des procédures de sécurité nationale à des fins anticoncurrentielles aux États-Unis, un précédent qui pourrait influencer les débats européens sur la régulation des fournisseurs d'IA.

RégulationReglementation
1 source