Aller au contenu principal
La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge
RégulationWired AI6sem

La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge

Résumé IASource uniqueImpact UE
Source originale ↗·

Un juge fédéral américain a exprimé de sérieuses réserves quant aux motivations du Département de la Défense (DoD) dans son traitement d'Anthropic, le développeur du modèle d'IA Claude. Lors d'une audience tenue mardi, le magistrat a remis en question la décision du Pentagone de qualifier l'entreprise de risque pour la chaîne d'approvisionnement — une désignation aux conséquences potentiellement dévastatrices pour la startup.

Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration américaine et certains acteurs de l'IA jugés insuffisamment alignés avec ses priorités stratégiques. Une classification "supply-chain risk" par le DoD peut entraîner l'exclusion d'une entreprise de tous les contrats fédéraux, lui coupant ainsi l'accès à un marché public considérable. Pour Anthropic, dont les ambitions incluent des déploiements dans le secteur public et la défense, une telle étiquette représenterait un obstacle majeur à sa croissance.

Le juge de district a directement interpellé les représentants du Département de la Défense sur leurs intentions réelles, utilisant le terme "paralyser" — cripple dans la version originale — pour décrire l'effet potentiel de la désignation sur Anthropic. Cette formulation tranchante du magistrat laisse entendre que la procédure pourrait être perçue comme une manœuvre de pression plutôt qu'une évaluation de sécurité légitime et objective.

Si le tribunal venait à invalider ou à limiter cette désignation, cela constituerait un précédent important pour l'ensemble de l'industrie de l'IA, dont plusieurs acteurs font face à une surveillance accrue de la part des agences fédérales américaines. L'issue de ce dossier sera suivie de près par les entreprises du secteur, qui s'interrogent sur les critères réels utilisés par le gouvernement pour évaluer les risques posés par les fournisseurs de technologies d'intelligence artificielle.

Impact France/UE

Cette affaire illustre les risques d'instrumentalisation des procédures de sécurité nationale à des fins anticoncurrentielles aux États-Unis, un précédent qui pourrait influencer les débats européens sur la régulation des fournisseurs d'IA.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes
1The Information AI 

Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes

La juge fédérale Rita Lin (district nord de Californie) a qualifié les actions du Pentagone contre Anthropic de "troublantes" lors d'une audience mardi, estimant qu'elles ressemblent à "une tentative de paralyser Anthropic". Ces déclarations interviennent dans le cadre du procès intenté par Anthropic contre le département de la Défense américain.

RégulationReglementation
1 source
Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »
2TechCrunch AI 

Pour le Pentagone, les « lignes rouges » d'Anthropic représentent un « risque inacceptable pour la sécurité nationale »

Le département américain de la Défense (DoD) a qualifié Anthropic de risque inacceptable pour la sécurité nationale, citant les "lignes rouges" de l'entreprise qui pourraient l'amener à désactiver ses technologies en pleine opération militaire. Cette préoccupation justifie, selon le Pentagone, la classification d'Anthropic comme risque dans la chaîne d'approvisionnement en IA.

UECe conflit entre éthique d'entreprise et exigences militaires américaines alimente le débat européen sur la souveraineté IA et les conditions d'usage des LLMs dans les secteurs sensibles.

RégulationActu
1 source
Le retournement de la stratégie du Pentagone contre Anthropic
3MIT Technology Review 

Le retournement de la stratégie du Pentagone contre Anthropic

Un juge fédéral californien, Rita Lin, a temporairement bloqué jeudi dernier le Pentagone dans sa tentative de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation qui aurait contraint toutes les agences gouvernementales à cesser d'utiliser ses outils d'IA. Dans une opinion de 43 pages, la juge a suspendu cette décision, interdit au Pentagone de l'appliquer et invalidé les promesses publiques faites par le secrétaire à la Défense Pete Hegseth et le président Donald Trump. Le gouvernement dispose de sept jours pour faire appel, et une deuxième procédure intentée par Anthropic reste en suspens. La start-up, cofondée par Dario Amodei, avait fourni son modèle Claude à des employés du Pentagone via Palantir pendant une grande partie de 2025, dans le cadre d'une politique d'utilisation gouvernementale spécifique interdisant notamment la « surveillance de masse des Américains » et la « guerre autonome létale », selon une déclaration sous serment du cofondateur Jared Kaplan. La rupture ne résulte pas d'un incident technique ou d'une faille de sécurité, mais d'un désaccord contractuel survenu lorsque le gouvernement a voulu traiter directement avec Anthropic — et d'une réponse politique qui a rapidement dérapé. Le 27 février, Trump a publié sur Truth Social un message dénonçant les « gauchistes fous » d'Anthropic et ordonné à toutes les agences fédérales de cesser d'utiliser ses produits. Hegseth a emboîté le pas en annonçant la désignation « supply chain risk ». Or la juge Lin a constaté que Hegseth n'avait pas suivi les procédures légales requises pour activer cette désignation : les lettres envoyées aux comités du Congrès affirmaient que des mesures moins radicales avaient été évaluées, sans fournir le moindre détail. Les avocats du gouvernement ont également dû admettre qu'ils n'avaient aucune preuve de l'existence d'un supposé « kill switch » qu'Anthropic aurait pu activer pour couper l'accès au gouvernement — argument central de la désignation. Pire, ils ont reconnu que l'ordre d'Hegseth interdisant à tout prestataire de « faire des affaires avec Anthropic » n'avait « absolument aucun effet juridique ». Cette affaire illustre une tension structurelle croissante entre l'administration Trump et les grandes entreprises d'IA qui refusent d'aligner leur politique sur les priorités idéologiques de Washington. Anthropic se trouve dans une position particulièrement délicate : elle est l'une des rares entreprises du secteur à avoir explicitement ancré la sécurité dans son identité commerciale, tout en cherchant à décrocher des contrats de défense. La juge a conclu que le gouvernement cherchait à « punir publiquement Anthropic pour son idéologie », ce qui constitue une atteinte au premier amendement. Le dossier n'est pas clos — l'appel possible et la seconde procédure maintiennent une incertitude réelle — mais la reculade judiciaire du Pentagone envoie un signal fort : utiliser des désignations de sécurité nationale comme levier de pression politique contre des entreprises privées reste juridiquement risqué, surtout quand les tweets précèdent les arguments juridiques.

💬 Le gouvernement n'avait aucune preuve du kill switch, n'a pas suivi les procédures légales, et a lancé la désignation quand même. Un tweet de Trump, une lettre vague au Congrès, des arguments que les avocats eux-mêmes ont reconnus sans effet juridique : c'est pas une stratégie, c'est de la panique. Anthropic voulait les contrats de défense sans plier sur sa politique d'usage, et là on voit ce que ça coûte vraiment.

RégulationReglementation
1 source
Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic
4The Information AI 

Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic

Le Pentagone a fait appel jeudi d'une décision de justice qui suspendait provisoirement sa désignation d'Anthropic comme risque pour la chaîne d'approvisionnement. La juge fédérale Rita Lin avait accordé la semaine précédente une injonction préliminaire en faveur d'Anthropic, assortie d'un délai administratif de sept jours laissant au Département de la Défense le temps de porter l'affaire devant une juridiction supérieure. Cet appel était largement anticipé. L'enjeu est considérable pour Anthropic : une désignation officielle comme risque pour la chaîne d'approvisionnement par le Pentagone pourrait exclure la startup de nombreux contrats fédéraux et freiner ses ambitions sur le marché gouvernemental américain, un secteur en pleine expansion pour les fournisseurs d'IA. Cette classification affecterait également la réputation commerciale de l'entreprise auprès d'autres clients institutionnels. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration américaine et certains acteurs de l'IA, dans un moment où Washington cherche à encadrer ses dépendances technologiques stratégiques. Anthropic, fondé en 2021 par d'anciens cadres d'OpenAI et valorisé à plusieurs dizaines de milliards de dollars, se retrouve ainsi au coeur d'un bras de fer juridique et politique qui illustre les enjeux géopolitiques entourant désormais le développement de l'intelligence artificielle.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour