
La tentative du Pentagone de « paralyser » Anthropic est préoccupante, selon un juge
Un juge fédéral américain a exprimé de sérieuses réserves quant aux motivations du Département de la Défense (DoD) dans son traitement d'Anthropic, le développeur du modèle d'IA Claude. Lors d'une audience tenue mardi, le magistrat a remis en question la décision du Pentagone de qualifier l'entreprise de risque pour la chaîne d'approvisionnement — une désignation aux conséquences potentiellement dévastatrices pour la startup.
Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration américaine et certains acteurs de l'IA jugés insuffisamment alignés avec ses priorités stratégiques. Une classification "supply-chain risk" par le DoD peut entraîner l'exclusion d'une entreprise de tous les contrats fédéraux, lui coupant ainsi l'accès à un marché public considérable. Pour Anthropic, dont les ambitions incluent des déploiements dans le secteur public et la défense, une telle étiquette représenterait un obstacle majeur à sa croissance.
Le juge de district a directement interpellé les représentants du Département de la Défense sur leurs intentions réelles, utilisant le terme "paralyser" — cripple dans la version originale — pour décrire l'effet potentiel de la désignation sur Anthropic. Cette formulation tranchante du magistrat laisse entendre que la procédure pourrait être perçue comme une manœuvre de pression plutôt qu'une évaluation de sécurité légitime et objective.
Si le tribunal venait à invalider ou à limiter cette désignation, cela constituerait un précédent important pour l'ensemble de l'industrie de l'IA, dont plusieurs acteurs font face à une surveillance accrue de la part des agences fédérales américaines. L'issue de ce dossier sera suivie de près par les entreprises du secteur, qui s'interrogent sur les critères réels utilisés par le gouvernement pour évaluer les risques posés par les fournisseurs de technologies d'intelligence artificielle.
Cette affaire illustre les risques d'instrumentalisation des procédures de sécurité nationale à des fins anticoncurrentielles aux États-Unis, un précédent qui pourrait influencer les débats européens sur la régulation des fournisseurs d'IA.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




