Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement
Un juge américain a temporairement bloqué la décision de l'administration Trump de classer Anthropic comme un risque pour la chaîne d'approvisionnement, empêchant ainsi l'entrée en vigueur de cette désignation prévue dès la semaine prochaine. Cette injonction provisoire permet à la société derrière le modèle Claude de poursuivre ses activités normalement, sans subir les contraintes réglementaires associées à ce label.
Cette classification, si elle avait été maintenue, aurait eu des conséquences significatives sur les opérations commerciales d'Anthropic, notamment en compliquant ses relations avec des partenaires gouvernementaux et des clients institutionnels américains. Le statut de "risque pour la chaîne d'approvisionnement" est un outil réglementaire aux implications lourdes, généralement associé à des restrictions sur les contrats fédéraux et les partenariats stratégiques.
La décision judiciaire constitue un revers pour l'administration Trump, qui a multiplié les mesures ciblant des acteurs technologiques considérés comme sensibles. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI dont Dario Amodei et Daniela Amodei, a levé plusieurs milliards de $ auprès d'investisseurs comme Google et Amazon, et se positionne comme l'un des principaux développeurs de systèmes d'IA dits "responsables".
L'injonction est temporaire, ce qui signifie que le dossier juridique reste ouvert. La bataille autour de la classification d'Anthropic s'inscrit dans un contexte plus large de tensions entre l'administration américaine et certains acteurs de l'IA, et pourrait faire jurisprudence pour d'autres entreprises du secteur exposées à des désignations similaires.
La suspension de la désignation préserve les relations commerciales d'Anthropic avec ses partenaires européens et évite des perturbations pour les entreprises de l'UE utilisant l'API Claude.



