Aller au contenu principal
RégulationArs Technica AI6h

Le règlement de 1,5 milliard de dollars d'Anthropic pour droits d'auteur s'enlise : le juge reporte son approbation

Résumé IASource uniqueImpact UE
Source originale ↗·

Une juge fédérale américaine a refusé jeudi d'approuver en l'état l'accord de règlement de 1,5 milliard de dollars conclu entre Anthropic et des auteurs dont les oeuvres auraient été utilisées sans autorisation pour entraîner ses modèles d'intelligence artificielle. La magistrate Araceli Martinez-Olguin, du tribunal de district des États-Unis, a suspendu la validation finale de ce qui est considéré comme le plus grand règlement pour violation de droits d'auteur de l'histoire américaine. Elle a demandé aux avocats représentant les auteurs de répondre aux objections formulées par plusieurs membres du groupe de plaignants, qui contestent les termes de l'accord.

Ces objections portent sur deux points centraux : la rémunération des avocats, jugée excessive, et les versements prévus pour les auteurs concernés, qualifiés de "dérisoires" par certains plaignants. Des membres du collectif ont également adressé des lettres à la juge, affirmant que l'équipe juridique des auteurs cherchait à les empêcher de faire entendre leurs objections de manière équitable. Martinez-Olguin, plutôt que d'entériner rapidement l'accord, a choisi d'examiner sérieusement ces griefs avant de se prononcer, signalant que le consentement des plaignants ne peut pas être ignoré au profit d'un règlement expéditif.

Cet accord s'inscrit dans une vague de procédures judiciaires qui opposent depuis plusieurs années les grandes entreprises d'IA aux titulaires de droits d'auteur, notamment des auteurs, des musiciens et des journalistes. Anthropic, comme ses concurrents OpenAI et Meta, fait face à des accusations d'avoir massivement aspiré des oeuvres protégées pour constituer les jeux de données d'entraînement de leurs modèles. Le montant de 1,5 milliard de dollars témoigne de l'ampleur du contentieux, mais les dissensions internes parmi les plaignants révèlent les tensions entre les stratégies des cabinets d'avocats spécialisés dans les recours collectifs et les intérêts réels des créateurs individuels. La décision finale de la juge pourrait redéfinir les standards des futurs règlements dans ce secteur en pleine effervescence juridique.

Impact France/UE

Cette affaire pourrait faire jurisprudence et peser sur les futures procédures judiciaires européennes concernant l'utilisation d'œuvres protégées pour l'entraînement de modèles d'IA, un débat également ouvert dans le cadre de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement
1Wired AI 

Un juge bloque la classification d'Anthropic comme risque pour la chaîne d'approvisionnement

Un juge fédéral américain a temporairement suspendu la décision de l'administration Trump de classer Anthropic comme entité à risque dans la chaîne d'approvisionnement, empêchant ainsi cette désignation d'entrer en vigueur la semaine prochaine. La mesure conservatoire accordée par le tribunal offre à la startup d'intelligence artificielle un répit immédiat, lui permettant de poursuivre ses activités commerciales sans être soumise aux restrictions liées à ce statut. Cette désignation aurait pu avoir des conséquences significatives sur les activités d'Anthropic, notamment en matière de contrats gouvernementaux, de partenariats commerciaux et d'accès aux technologies sensibles. Un tel label, appliqué dans le cadre des mécanismes de sécurité nationale américains, peut considérablement compliquer les relations d'affaires d'une entreprise et éroder la confiance de ses clients et investisseurs. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration Trump et certains acteurs de l'IA, alors que Washington cherche à renforcer son contrôle sur les technologies jugées stratégiques. Anthropic, fondée en 2021 par d'anciens membres d'OpenAI et qui compte Amazon parmi ses principaux investisseurs, se retrouve ainsi au cœur d'un bras de fer juridique et politique dont l'issue pourrait influencer la manière dont d'autres entreprises du secteur sont traitées par les autorités fédérales.

UELa suspension de la désignation préserve les relations commerciales d'Anthropic avec ses partenaires européens et évite des perturbations pour les entreprises de l'UE utilisant l'API Claude.

RégulationReglementation
1 source
Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic
2The Information AI 

Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic

Le Pentagone a fait appel jeudi d'une décision de justice qui suspendait provisoirement sa désignation d'Anthropic comme risque pour la chaîne d'approvisionnement. La juge fédérale Rita Lin avait accordé la semaine précédente une injonction préliminaire en faveur d'Anthropic, assortie d'un délai administratif de sept jours laissant au Département de la Défense le temps de porter l'affaire devant une juridiction supérieure. Cet appel était largement anticipé. L'enjeu est considérable pour Anthropic : une désignation officielle comme risque pour la chaîne d'approvisionnement par le Pentagone pourrait exclure la startup de nombreux contrats fédéraux et freiner ses ambitions sur le marché gouvernemental américain, un secteur en pleine expansion pour les fournisseurs d'IA. Cette classification affecterait également la réputation commerciale de l'entreprise auprès d'autres clients institutionnels. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration américaine et certains acteurs de l'IA, dans un moment où Washington cherche à encadrer ses dépendances technologiques stratégiques. Anthropic, fondé en 2021 par d'anciens cadres d'OpenAI et valorisé à plusieurs dizaines de milliards de dollars, se retrouve ainsi au coeur d'un bras de fer juridique et politique qui illustre les enjeux géopolitiques entourant désormais le développement de l'intelligence artificielle.

RégulationReglementation
1 source
Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA
3AI News 

Pourquoi le Royaume-Uni veut Anthropic : son refus de militariser l'IA

Fin février, le secrétaire américain à la Défense Pete Hegseth a adressé un ultimatum au PDG d'Anthropic, Dario Amodei : supprimer les garde-fous empêchant Claude d'être utilisé pour des armes entièrement autonomes et de la surveillance de masse intérieure, ou en subir les conséquences. Amodei a refusé, estimant qu'Anthropic ne pouvait pas "en bonne conscience" répondre à la demande du Pentagone, certains usages de l'IA pouvant "saper plutôt que défendre les valeurs démocratiques". La réaction de Washington a été immédiate : Donald Trump a ordonné à toutes les agences fédérales de cesser d'utiliser la technologie d'Anthropic, le Pentagone a classé l'entreprise comme risque pour la chaîne d'approvisionnement -- label habituellement réservé à des entités étrangères adverses comme Huawei -- et le contrat de 200 millions de dollars avec le ministère de la Défense a été annulé. Londres a interprété cet épisode très différemment. Le département britannique pour la Science, l'Innovation et la Technologie (DSIT) a élaboré des propositions concrètes destinées à l'entreprise, valorisée 380 milliards de dollars : une double cotation à la Bourse de Londres et l'expansion de ses bureaux dans la capitale. Le bureau du Premier ministre Keir Starmer soutient l'initiative, qui sera soumise à Amodei lors de sa visite prévue fin mai. Anthropic compte déjà environ 200 employés au Royaume-Uni et a nommé l'ancien Premier ministre Rishi Sunak conseiller senior l'an dernier. En offrant cette ouverture, le gouvernement britannique envoie un signal explicite : les contraintes éthiques intégrées dans les produits d'Anthropic sont un atout, pas un frein. Une double cotation à Londres permettrait par ailleurs à la société d'accéder aux investisseurs institutionnels européens, à un moment où sa situation réglementaire aux États-Unis reste incertaine -- l'appel du Pentagone contre l'injonction provisoire qui bloque la désignation "risque d'approvisionnement" est toujours en cours devant la Cour d'appel du Neuvième Circuit. L'affaire dépasse le simple conflit juridique et commercial. La juge fédérale Rita Lin, qui a accordé l'injonction provisoire en mars, a jugé les actions du gouvernement américain "troublantes" et probablement contraires à la loi -- un constat qui pèse dans le débat international sur la gouvernance de l'IA. Le Royaume-Uni se positionne comme un environnement intermédiaire entre Washington, qui exige un accès militaire sans restriction, et Bruxelles, où l'AI Act européen impose ses propres contraintes. Ce positionnement ne demande pas à Anthropic de renoncer aux garde-fous pour lesquels l'entreprise s'est battue en justice. La compétition pour attirer les grands laboratoires d'IA à Londres est déjà intense : OpenAI a promis d'en faire son plus grand hub de recherche hors des États-Unis, et Google est ancré à King's Cross depuis le rachat de DeepMind en 2014. Dans ce contexte, Anthropic représente la cible la plus stratégique à ce jour, d'autant que le Royaume-Uni vient d'annoncer la création d'un laboratoire de recherche public doté de 40 millions de livres sterling, reconnaissant ainsi l'absence d'un champion national face aux grandes puissances américaines.

UELe Royaume-Uni se positionne comme hub alternatif entre Washington et Bruxelles en valorisant les garde-fous éthiques d'Anthropic, ce qui pourrait orienter des capitaux institutionnels européens vers l'entreprise et renforcer indirectement le modèle de gouvernance incarné par l'AI Act.

RégulationReglementation
1 source
Le retournement de la stratégie du Pentagone contre Anthropic
4MIT Technology Review 

Le retournement de la stratégie du Pentagone contre Anthropic

Un juge fédéral californien, Rita Lin, a temporairement bloqué jeudi dernier le Pentagone dans sa tentative de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation qui aurait contraint toutes les agences gouvernementales à cesser d'utiliser ses outils d'IA. Dans une opinion de 43 pages, la juge a suspendu cette décision, interdit au Pentagone de l'appliquer et invalidé les promesses publiques faites par le secrétaire à la Défense Pete Hegseth et le président Donald Trump. Le gouvernement dispose de sept jours pour faire appel, et une deuxième procédure intentée par Anthropic reste en suspens. La start-up, cofondée par Dario Amodei, avait fourni son modèle Claude à des employés du Pentagone via Palantir pendant une grande partie de 2025, dans le cadre d'une politique d'utilisation gouvernementale spécifique interdisant notamment la « surveillance de masse des Américains » et la « guerre autonome létale », selon une déclaration sous serment du cofondateur Jared Kaplan. La rupture ne résulte pas d'un incident technique ou d'une faille de sécurité, mais d'un désaccord contractuel survenu lorsque le gouvernement a voulu traiter directement avec Anthropic — et d'une réponse politique qui a rapidement dérapé. Le 27 février, Trump a publié sur Truth Social un message dénonçant les « gauchistes fous » d'Anthropic et ordonné à toutes les agences fédérales de cesser d'utiliser ses produits. Hegseth a emboîté le pas en annonçant la désignation « supply chain risk ». Or la juge Lin a constaté que Hegseth n'avait pas suivi les procédures légales requises pour activer cette désignation : les lettres envoyées aux comités du Congrès affirmaient que des mesures moins radicales avaient été évaluées, sans fournir le moindre détail. Les avocats du gouvernement ont également dû admettre qu'ils n'avaient aucune preuve de l'existence d'un supposé « kill switch » qu'Anthropic aurait pu activer pour couper l'accès au gouvernement — argument central de la désignation. Pire, ils ont reconnu que l'ordre d'Hegseth interdisant à tout prestataire de « faire des affaires avec Anthropic » n'avait « absolument aucun effet juridique ». Cette affaire illustre une tension structurelle croissante entre l'administration Trump et les grandes entreprises d'IA qui refusent d'aligner leur politique sur les priorités idéologiques de Washington. Anthropic se trouve dans une position particulièrement délicate : elle est l'une des rares entreprises du secteur à avoir explicitement ancré la sécurité dans son identité commerciale, tout en cherchant à décrocher des contrats de défense. La juge a conclu que le gouvernement cherchait à « punir publiquement Anthropic pour son idéologie », ce qui constitue une atteinte au premier amendement. Le dossier n'est pas clos — l'appel possible et la seconde procédure maintiennent une incertitude réelle — mais la reculade judiciaire du Pentagone envoie un signal fort : utiliser des désignations de sécurité nationale comme levier de pression politique contre des entreprises privées reste juridiquement risqué, surtout quand les tweets précèdent les arguments juridiques.

💬 Le gouvernement n'avait aucune preuve du kill switch, n'a pas suivi les procédures légales, et a lancé la désignation quand même. Un tweet de Trump, une lettre vague au Congrès, des arguments que les avocats eux-mêmes ont reconnus sans effet juridique : c'est pas une stratégie, c'est de la panique. Anthropic voulait les contrats de défense sans plier sur sa politique d'usage, et là on voit ce que ça coûte vraiment.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour