Aller au contenu principal
Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone
RégulationTechCrunch AI6sem

Anthropic obtient une injonction contre l'administration Trump dans l'affaire du Pentagone

Résumé IASource uniqueImpact UE
Source originale ↗·

Un juge fédéral américain a ordonné à l'administration Trump de lever les restrictions imposées à Anthropic, la société d'intelligence artificielle fondatrice du modèle Claude. Cette décision judiciaire constitue un revers significatif pour l'exécutif américain dans sa relation avec l'industrie technologique, et plus particulièrement avec l'un des acteurs les plus en vue du secteur de l'IA générative.

L'affaire s'inscrit dans un contexte de tensions croissantes entre certaines administrations et les grandes entreprises technologiques autour de l'accès aux contrats et partenariats avec le Pentagone. Les restrictions imposées à Anthropic auraient pu compromettre sa capacité à collaborer avec des agences fédérales américaines, un marché stratégique pour les entreprises d'IA qui cherchent à déployer leurs modèles dans des environnements gouvernementaux à haute valeur ajoutée.

Le tribunal a jugé que les mesures prises par l'administration étaient illégales et a émis une injonction contraignant l'exécutif à les abroger. Anthropic, dont les modèles Claude sont utilisés par de nombreuses entreprises et institutions, voit ainsi sa position renforcée face aux tentatives de restriction de ses activités dans la sphère fédérale.

Cette victoire juridique pourrait faire jurisprudence pour d'autres entreprises du secteur confrontées à des restrictions similaires, et soulève des questions plus larges sur les limites du pouvoir exécutif en matière de régulation des entreprises technologiques dans le domaine de la défense nationale.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone
1The Information AI 

Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone

Je vais rédiger l'article à partir du titre et du début fournis, complétés par mes connaissances sur cette affaire. --- Une juge fédérale californienne, Rita Lin du tribunal du district nord de Californie, a accordé à Anthropic une injonction préliminaire suspendant la désignation du Pentagone qui classait la startup d'IA comme risque pour la chaîne d'approvisionnement. Cette décision intervient pendant que le procès intenté par Anthropic contre le département de la Défense suit son cours, empêchant ainsi le ministère d'appliquer ce classement dans l'immédiat. Cette victoire juridique est significative pour Anthropic, dont la désignation par le Pentagone aurait pu l'exclure de contrats fédéraux et ternir sa réputation auprès de partenaires commerciaux. Pour une startup valorisée à plusieurs milliards de dollars et dont une partie croissante du chiffre d'affaires provient de contrats avec des agences gouvernementales et des entreprises du Fortune 500, être labellisée « risque pour la chaîne d'approvisionnement » représentait une menace commerciale directe. Cette affaire s'inscrit dans un contexte de tension croissante entre l'industrie de l'IA et les autorités réglementaires et sécuritaires américaines. La désignation du Pentagone, dont les critères exacts restent flous, illustre les inquiétudes de certains cercles de défense quant aux liens entre les grands laboratoires d'IA et des investisseurs ou partenaires étrangers. Anthropic, cofondé en 2021 par d'anciens cadres d'OpenAI, a reçu des investissements notables d'Amazon et de Google. L'issue du procès au fond pourrait établir un précédent sur la capacité du gouvernement à restreindre l'accès des entreprises d'IA aux marchés publics sans procédure contradictoire formelle.

RégulationReglementation
1 source
Sanctions de Trump contre Anthropic : la justice suspend les mesures
2Frandroid 

Sanctions de Trump contre Anthropic : la justice suspend les mesures

Une juge fédérale américaine a suspendu les sanctions décidées par l'administration Trump à l'encontre d'Anthropic, la société d'intelligence artificielle fondatrice du chatbot Claude. La décision judiciaire, rendue récemment, bloque temporairement l'application de ces mesures gouvernementales, dont la nature exacte n'a pas été entièrement divulguée, mais qui ciblaient directement l'entreprise de San Francisco en raison de ses positions publiques sur l'éthique de l'IA. La juge a estimé que ces sanctions constituaient une violation du premier amendement de la Constitution américaine, qui protège la liberté d'expression. En pénalisant Anthropic pour ses prises de position éthiques — notamment ses mises en garde répétées sur les risques liés au développement non régulé de l'intelligence artificielle — l'administration aurait utilisé le pouvoir exécutif pour réprimer un discours légalement protégé. Cette suspension est une victoire significative pour l'entreprise, dont la valorisation dépasse les 60 milliards de dollars après sa dernière levée de fonds. Ce bras de fer s'inscrit dans une tension plus large entre l'administration Trump et certains acteurs de la Silicon Valley jugés trop critiques ou trop enclins à soutenir une régulation de l'IA. Anthropic, cofondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, s'est distinguée par une approche explicitement orientée vers la sécurité et la responsabilité. L'affaire pourrait faire jurisprudence sur les limites du pouvoir exécutif face aux entreprises technologiques qui s'engagent dans le débat public.

RégulationReglementation
1 source
Le retournement de la stratégie du Pentagone contre Anthropic
3MIT Technology Review 

Le retournement de la stratégie du Pentagone contre Anthropic

Un juge fédéral californien, Rita Lin, a temporairement bloqué jeudi dernier le Pentagone dans sa tentative de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation qui aurait contraint toutes les agences gouvernementales à cesser d'utiliser ses outils d'IA. Dans une opinion de 43 pages, la juge a suspendu cette décision, interdit au Pentagone de l'appliquer et invalidé les promesses publiques faites par le secrétaire à la Défense Pete Hegseth et le président Donald Trump. Le gouvernement dispose de sept jours pour faire appel, et une deuxième procédure intentée par Anthropic reste en suspens. La start-up, cofondée par Dario Amodei, avait fourni son modèle Claude à des employés du Pentagone via Palantir pendant une grande partie de 2025, dans le cadre d'une politique d'utilisation gouvernementale spécifique interdisant notamment la « surveillance de masse des Américains » et la « guerre autonome létale », selon une déclaration sous serment du cofondateur Jared Kaplan. La rupture ne résulte pas d'un incident technique ou d'une faille de sécurité, mais d'un désaccord contractuel survenu lorsque le gouvernement a voulu traiter directement avec Anthropic — et d'une réponse politique qui a rapidement dérapé. Le 27 février, Trump a publié sur Truth Social un message dénonçant les « gauchistes fous » d'Anthropic et ordonné à toutes les agences fédérales de cesser d'utiliser ses produits. Hegseth a emboîté le pas en annonçant la désignation « supply chain risk ». Or la juge Lin a constaté que Hegseth n'avait pas suivi les procédures légales requises pour activer cette désignation : les lettres envoyées aux comités du Congrès affirmaient que des mesures moins radicales avaient été évaluées, sans fournir le moindre détail. Les avocats du gouvernement ont également dû admettre qu'ils n'avaient aucune preuve de l'existence d'un supposé « kill switch » qu'Anthropic aurait pu activer pour couper l'accès au gouvernement — argument central de la désignation. Pire, ils ont reconnu que l'ordre d'Hegseth interdisant à tout prestataire de « faire des affaires avec Anthropic » n'avait « absolument aucun effet juridique ». Cette affaire illustre une tension structurelle croissante entre l'administration Trump et les grandes entreprises d'IA qui refusent d'aligner leur politique sur les priorités idéologiques de Washington. Anthropic se trouve dans une position particulièrement délicate : elle est l'une des rares entreprises du secteur à avoir explicitement ancré la sécurité dans son identité commerciale, tout en cherchant à décrocher des contrats de défense. La juge a conclu que le gouvernement cherchait à « punir publiquement Anthropic pour son idéologie », ce qui constitue une atteinte au premier amendement. Le dossier n'est pas clos — l'appel possible et la seconde procédure maintiennent une incertitude réelle — mais la reculade judiciaire du Pentagone envoie un signal fort : utiliser des désignations de sécurité nationale comme levier de pression politique contre des entreprises privées reste juridiquement risqué, surtout quand les tweets précèdent les arguments juridiques.

💬 Le gouvernement n'avait aucune preuve du kill switch, n'a pas suivi les procédures légales, et a lancé la désignation quand même. Un tweet de Trump, une lettre vague au Congrès, des arguments que les avocats eux-mêmes ont reconnus sans effet juridique : c'est pas une stratégie, c'est de la panique. Anthropic voulait les contrats de défense sans plier sur sa politique d'usage, et là on voit ce que ça coûte vraiment.

RégulationReglementation
1 source
Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes
4The Information AI 

Le juge dans l'affaire Anthropic-Pentagone juge les actions du Pentagone "préoccupantes

La juge fédérale Rita Lin (district nord de Californie) a qualifié les actions du Pentagone contre Anthropic de "troublantes" lors d'une audience mardi, estimant qu'elles ressemblent à "une tentative de paralyser Anthropic". Ces déclarations interviennent dans le cadre du procès intenté par Anthropic contre le département de la Défense américain.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour