Aller au contenu principal
Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »
RégulationThe Decoder6sem

Un juge fédéral bloque l'interdiction par Trump des modèles Anthropic, qualifiant l'étiquette de risque sécuritaire d'« orwellienne »

Résumé IASource uniqueImpact UE
Source originale ↗·

Une juge fédérale de San Francisco a bloqué la tentative de l'administration Trump d'interdire les modèles d'intelligence artificielle d'Anthropic, dans une décision rendue au terme d'une procédure en référé. La magistrate Rita F. Lin a statué en faveur de la start-up californienne, estimant que les actions du gouvernement constituaient une « rétorsion illégale classique au premier amendement » en réponse aux critiques publiques formulées par Anthropic à l'égard de la politique technologique de Washington.

La décision est particulièrement cinglante pour l'administration : la juge Lin a rejeté la notion qu'elle qualifie d'« orwellienne » selon laquelle une entreprise américaine pourrait être étiquetée « adversaire potentielle et saboteuse » au seul motif qu'elle exprime un désaccord avec le gouvernement. Cette qualification de risque sécuritaire, si elle avait été maintenue, aurait pu empêcher des agences fédérales et des contractants gouvernementaux d'utiliser les outils d'Anthropic, portant un coup sévère à ses activités commerciales et à sa réputation.

L'affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de la Silicon Valley qui ont refusé de s'aligner sur ses positions. Anthropic, cofondée par d'anciens employés d'OpenAI dont Dario et Daniela Amodei, est l'une des entreprises d'IA les plus valorisées au monde, avec des investissements massifs d'Amazon et Google. Ce jugement constitue un précédent potentiellement important pour la liberté d'expression des entreprises technologiques face aux pressions politiques, à un moment où Washington cherche à exercer un contrôle accru sur le secteur de l'IA.

Impact France/UE

La décision préserve l'accès des entreprises et institutions européennes aux outils Anthropic, tout en posant un précédent sur les limites du pouvoir exécutif américain face aux acteurs de l'IA opérant en Europe.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement
1Wired AI 

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement

Un juge fédéral américain a temporairement suspendu la décision de l'administration Trump de classer Anthropic comme entité à risque dans la chaîne d'approvisionnement, empêchant ainsi cette désignation d'entrer en vigueur la semaine prochaine. La mesure conservatoire accordée par le tribunal offre à la startup d'intelligence artificielle un répit immédiat, lui permettant de poursuivre ses activités commerciales sans être soumise aux restrictions liées à ce statut. Cette désignation aurait pu avoir des conséquences significatives sur les activités d'Anthropic, notamment en matière de contrats gouvernementaux, de partenariats commerciaux et d'accès aux technologies sensibles. Un tel label, appliqué dans le cadre des mécanismes de sécurité nationale américains, peut considérablement compliquer les relations d'affaires d'une entreprise et éroder la confiance de ses clients et investisseurs. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de l'IA, alors que Washington cherche à renforcer son contrôle sur les technologies jugées stratégiques. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI et qui compte Amazon parmi ses principaux investisseurs, se retrouve ainsi au cœur d'un bras de fer juridique et politique dont l'issue pourrait influencer la manière dont d'autres entreprises du secteur sont traitées par les autorités fédérales.

UELa suspension de la désignation préserve les relations commerciales d'Anthropic avec ses partenaires européens et évite des perturbations pour les entreprises de l'UE utilisant l'API Claude.

RégulationReglementation
1 source
2Ars Technica AI 

Des juges nommés par Trump refusent de bloquer sa liste noire visant les technologies d'Anthropic

La cour d'appel fédérale du circuit du district de Columbia a refusé hier d'accorder un sursis d'urgence à Anthropic, qui tentait de bloquer sa mise sur liste noire par l'administration Trump. La décision a été rendue par un panel de trois juges nommés par des républicains, dont Gregory Katsas et Neomi Rao, tous deux anciens membres de l'administration Trump. Katsas avait occupé le poste de conseiller juridique adjoint du président lors du premier mandat de Trump, tandis que Rao avait servi au Bureau de la gestion et du budget. Si le tribunal a refusé l'urgence, il a toutefois accepté d'accélérer la procédure et fixé des plaidoiries orales au 19 mai. Anthropic a par ailleurs obtenu davantage de succès dans une seconde affaire distincte qu'elle a intentée simultanément contre l'administration. Ce revers judiciaire illustre la gravité de la situation pour Anthropic : Trump a ordonné à l'ensemble des agences fédérales de cesser d'utiliser ses technologies, et le secrétaire à la Défense Pete Hegseth a classifié l'entreprise comme un "risque pour la chaîne d'approvisionnement en matière de sécurité nationale". Cette désignation interdit aux sous-traitants militaires de collaborer avec Anthropic, ce qui représente une menace directe sur une part significative de ses contrats commerciaux et de son accès aux marchés publics américains. Selon Anthropic, ces mesures constituent une forme de représailles politiques. La société affirme avoir exercé ses droits constitutionnels garantis par le Premier Amendement en refusant que ses modèles Claude soient utilisés pour des opérations de guerre autonome ou de surveillance de masse des citoyens américains. La bataille juridique s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certaines entreprises technologiques sur les questions d'usage militaire de l'intelligence artificielle. L'issue des plaidoiries du 19 mai pourrait redéfinir les limites du pouvoir exécutif face aux acteurs privés de l'IA, et établir un précédent déterminant pour l'ensemble du secteur.

UEUn précédent américain sur les limites du pouvoir exécutif face aux entreprises IA pourrait influencer les débats européens sur la gouvernance de l'IA, notamment pour les partenaires européens d'Anthropic exposés aux marchés publics américains.

RégulationReglementation
1 source
Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone
3The Information AI 

Anthropic obtient une injonction bloquant son inscription sur liste noire du Pentagone

Je vais rédiger l'article à partir du titre et du début fournis, complétés par mes connaissances sur cette affaire. --- Une juge fédérale californienne, Rita Lin du tribunal du district nord de Californie, a accordé à Anthropic une injonction préliminaire suspendant la désignation du Pentagone qui classait la startup d'IA comme risque pour la chaîne d'approvisionnement. Cette décision intervient pendant que le procès intenté par Anthropic contre le département de la Défense suit son cours, empêchant ainsi le ministère d'appliquer ce classement dans l'immédiat. Cette victoire juridique est significative pour Anthropic, dont la désignation par le Pentagone aurait pu l'exclure de contrats fédéraux et ternir sa réputation auprès de partenaires commerciaux. Pour une startup valorisée à plusieurs milliards de dollars et dont une partie croissante du chiffre d'affaires provient de contrats avec des agences gouvernementales et des entreprises du Fortune 500, être labellisée « risque pour la chaîne d'approvisionnement » représentait une menace commerciale directe. Cette affaire s'inscrit dans un contexte de tension croissante entre l'industrie de l'IA et les autorités réglementaires et sécuritaires américaines. La désignation du Pentagone, dont les critères exacts restent flous, illustre les inquiétudes de certains cercles de défense quant aux liens entre les grands laboratoires d'IA et des investisseurs ou partenaires étrangers. Anthropic, cofondé en 2021 par d'anciens cadres d'OpenAI, a reçu des investissements notables d'Amazon et de Google. L'issue du procès au fond pourrait établir un précédent sur la capacité du gouvernement à restreindre l'accès des entreprises d'IA aux marchés publics sans procédure contradictoire formelle.

RégulationReglementation
1 source
Sanctions de Trump contre Anthropic : la justice suspend les mesures
4Frandroid 

Sanctions de Trump contre Anthropic : la justice suspend les mesures

Une juge fédérale américaine a suspendu les sanctions décidées par l'administration Trump à l'encontre d'Anthropic, la société d'intelligence artificielle fondatrice du chatbot Claude. La décision judiciaire, rendue récemment, bloque temporairement l'application de ces mesures gouvernementales, dont la nature exacte n'a pas été entièrement divulguée, mais qui ciblaient directement l'entreprise de San Francisco en raison de ses positions publiques sur l'éthique de l'IA. La juge a estimé que ces sanctions constituaient une violation du premier amendement de la Constitution américaine, qui protège la liberté d'expression. En pénalisant Anthropic pour ses prises de position éthiques — notamment ses mises en garde répétées sur les risques liés au développement non régulé de l'intelligence artificielle — l'administration aurait utilisé le pouvoir exécutif pour réprimer un discours légalement protégé. Cette suspension est une victoire significative pour l'entreprise, dont la valorisation dépasse les 60 milliards de dollars après sa dernière levée de fonds. Ce bras de fer s'inscrit dans une tension plus large entre l'administration Trump et certains acteurs de la Silicon Valley jugés trop critiques ou trop enclins à soutenir une régulation de l'IA. Anthropic, cofondée en 2021 par d'anciens cadres d'OpenAI dont Dario et Daniela Amodei, s'est distinguée par une approche explicitement orientée vers la sécurité et la responsabilité. L'affaire pourrait faire jurisprudence sur les limites du pouvoir exécutif face aux entreprises technologiques qui s'engagent dans le débat public.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour