Aller au contenu principal
Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement
RégulationWired AI6sem

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement

Résumé IASource uniqueImpact UE
Source originale ↗·

Un juge américain a temporairement bloqué la décision de l'administration Trump de classer Anthropic comme un risque pour la chaîne d'approvisionnement, empêchant ainsi l'entrée en vigueur de cette désignation prévue dès la semaine prochaine. Cette injonction provisoire permet à la société derrière le modèle Claude de poursuivre ses activités normalement, sans subir les contraintes réglementaires associées à ce label.

Cette classification, si elle avait été maintenue, aurait eu des conséquences significatives sur les opérations commerciales d'Anthropic, notamment en compliquant ses relations avec des partenaires gouvernementaux et des clients institutionnels américains. Le statut de "risque pour la chaîne d'approvisionnement" est un outil réglementaire aux implications lourdes, généralement associé à des restrictions sur les contrats fédéraux et les partenariats stratégiques.

La décision judiciaire constitue un revers pour l'administration Trump, qui a multiplié les mesures ciblant des acteurs technologiques considérés comme sensibles. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI dont Dario Amodei et Daniela Amodei, a levé plusieurs milliards de $ auprès d'investisseurs comme Google et Amazon, et se positionne comme l'un des principaux développeurs de systèmes d'IA dits "responsables".

L'injonction est temporaire, ce qui signifie que le dossier juridique reste ouvert. La bataille autour de la classification d'Anthropic s'inscrit dans un contexte plus large de tensions entre l'administration américaine et certains acteurs de l'IA, et pourrait faire jurisprudence pour d'autres entreprises du secteur exposées à des désignations similaires.

Impact France/UE

La suspension de la désignation préserve les relations commerciales d'Anthropic avec ses partenaires européens et évite des perturbations pour les entreprises de l'UE utilisant l'API Claude.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic poursuit en justice le Département de la Défense pour une classification de risque dans la chaîne d'approvisionnement
1Wired AI 

Anthropic poursuit en justice le Département de la Défense pour une classification de risque dans la chaîne d'approvisionnement

Anthropic a engagé des poursuites judiciaires contre le Département de la Défense américain, accusant l'administration Trump d'avoir transformé un litige contractuel en interdiction fédérale de ses technologies. La société estime que le gouvernement a outrepassé ses prérogatives en lui attribuant une désignation de risque dans la chaîne d'approvisionnement. Cette décision menace directement les activités commerciales d'Anthropic, développeur du chatbot Claude.

RégulationReglementation
1 source
Le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement
2TechCrunch AI 

Le Pentagone désigne Anthropic comme un risque pour la chaîne d'approvisionnement

Le Pentagone a officiellement désigné Anthropic comme un risque dans la chaîne d'approvisionnement, en faisant ainsi la première entreprise américaine à recevoir cette étiquette. Simultanément, le Département de la Défense utilise toujours les technologies d'IA d'Anthropic en Iran.

RechercheActu
1 source
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
3The Decoder 

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington. La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation. L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

UELa décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

RégulationReglementation
1 source
Anthropic conteste l'étiquette de chaîne d'approvisionnement du DOD devant la cour
4TechCrunch AI 

Anthropic conteste l'étiquette de chaîne d'approvisionnement du DOD devant la cour

Anthropic, dirigée par Dario Amodei, prévoit de contester la désignation du Département de la Défense (DOD) en tant que risque pour la chaîne d'approvisionnement. Amodei soutient que la plupart des clients d'Anthropic ne sont pas touchés par cette étiquette.

RégulationActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour