Aller au contenu principal
Meta espère qu'une décision de la Cour suprême sur le piratage l'aidera à faire rejeter le procès sur ses données d'entraînement
RégulationArs Technica AI6sem

Meta espère qu'une décision de la Cour suprême sur le piratage l'aidera à faire rejeter le procès sur ses données d'entraînement

Résumé IASource uniqueImpact UE
Source originale ↗·

Meta a déposé la semaine dernière une déclaration dans un procès intenté par Entrepreneur Media, espérant s'appuyer sur une récente décision de la Cour suprême américaine pour échapper à sa responsabilité dans une affaire de téléchargement illicite de données d'entraînement pour l'IA. Les plaignants accusent Meta d'avoir utilisé BitTorrent pour télécharger environ 80 téraoctets d'œuvres protégées par le droit d'auteur. En « seedant » ces fichiers — c'est-à-dire en permettant à d'autres utilisateurs de télécharger à partir de ses propres copies — Meta aurait sciemment facilité des infractions supplémentaires au droit d'auteur, ce qui constitue le cœur de la plainte pour « contributory infringement », ou contrefaçon par complicité.

La décision de la Cour suprême que Meta invoque avait établi que les fournisseurs d'accès à Internet ne sont pas responsables des actes de piratage commis sur leurs réseaux par leurs abonnés. Meta tente d'appliquer ce raisonnement à sa propre situation, arguant qu'une simple connaissance du fonctionnement du protocole BitTorrent ne suffit pas à établir une responsabilité juridique. L'enjeu est considérable : la plainte en contrefaçon par complicité est nettement plus facile à prouver qu'une accusation de contrefaçon directe, car elle n'exige pas de démontrer que Meta a téléchargé une œuvre dans son intégralité — seulement qu'elle a facilité des transferts de fichiers.

Cette affaire s'inscrit dans un contentieux plus large autour de l'entraînement des grands modèles de langage sur des données potentiellement protégées. Une action collective distincte, Kadrey v. Meta, portée par des auteurs, poursuit Meta pour contrefaçon directe liée au même épisode de torrent. L'ensemble de ces procédures reflète une bataille juridique fondamentale qui oppose l'industrie de l'IA aux ayants droit : dans quelle mesure les entreprises technologiques peuvent-elles aspirer massivement du contenu protégé pour entraîner leurs modèles sans s'exposer à des poursuites ? La façon dont les tribunaux américains répondront à cette question façonnera durablement les pratiques de collecte de données dans tout le secteur.

Impact France/UE

La jurisprudence américaine sur les données d'entraînement pourrait influencer l'interprétation du cadre européen sur les droits d'auteur face à l'IA, notamment dans les procédures similaires en cours en Europe sous l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic
1The Information AI 

Le Pentagone fait appel de la décision suspendant la mise sur liste noire d'Anthropic

Le Pentagone a fait appel jeudi d'une décision de justice qui suspendait provisoirement sa désignation d'Anthropic comme risque pour la chaîne d'approvisionnement. La juge fédérale Rita Lin avait accordé la semaine précédente une injonction préliminaire en faveur d'Anthropic, assortie d'un délai administratif de sept jours laissant au Département de la Défense le temps de porter l'affaire devant une juridiction supérieure. Cet appel était largement anticipé. L'enjeu est considérable pour Anthropic : une désignation officielle comme risque pour la chaîne d'approvisionnement par le Pentagone pourrait exclure la startup de nombreux contrats fédéraux et freiner ses ambitions sur le marché gouvernemental américain, un secteur en pleine expansion pour les fournisseurs d'IA. Cette classification affecterait également la réputation commerciale de l'entreprise auprès d'autres clients institutionnels. Cette affaire s'inscrit dans un contexte de tensions croissantes entre l'administration américaine et certains acteurs de l'IA, dans un moment où Washington cherche à encadrer ses dépendances technologiques stratégiques. Anthropic, fondé en 2021 par d'anciens cadres d'OpenAI et valorisé à plusieurs dizaines de milliards de dollars, se retrouve ainsi au coeur d'un bras de fer juridique et politique qui illustre les enjeux géopolitiques entourant désormais le développement de l'intelligence artificielle.

RégulationReglementation
1 source
GitHub fait machine arrière et va bien entraîner ses IA sur vos données
2Numerama 

GitHub fait machine arrière et va bien entraîner ses IA sur vos données

GitHub a officiellement annoncé qu'il utilisera les données de ses utilisateurs pour entraîner ses modèles d'intelligence artificielle, dont Copilot. Ce revirement marque un changement de position notable pour la plateforme de Microsoft, qui avait jusqu'ici laissé planer une certaine ambiguïté sur l'usage réel de ces données. Désormais, la participation à l'entraînement des IA est confirmée, sous réserve de conditions précises que GitHub n'a pas encore détaillées publiquement dans leur intégralité. Ce changement concerne potentiellement des dizaines de millions de développeurs qui hébergent leur code sur GitHub — la plus grande plateforme de dépôts au monde avec plus de 100 millions d'utilisateurs. Le fait que du code source, des commentaires et des contributions soient réinjectés dans l'entraînement de Copilot soulève des questions directes sur la propriété intellectuelle, la confidentialité du code propriétaire, et la transparence des consentements. Pour les entreprises qui utilisent GitHub en supposant que leur code interne reste privé, les implications pratiques peuvent être significatives. Cette décision s'inscrit dans une tendance plus large de l'industrie tech à monétiser les données des utilisateurs pour alimenter leurs produits d'IA générative. Microsoft, qui a racheté GitHub en 2018 pour 7,5 milliards de dollars, investit massivement dans l'IA via son partenariat stratégique avec OpenAI. La question des droits sur les données d'entraînement fait l'objet de litiges actifs dans plusieurs pays, et ce positionnement de GitHub pourrait alimenter de nouvelles contestations légales ou réglementaires, notamment en Europe où le RGPD encadre strictement ce type d'usage.

UELe RGPD impose à GitHub/Microsoft d'obtenir un consentement valide des développeurs européens avant d'utiliser leur code pour entraîner Copilot, exposant la plateforme à des contrôles de la CNIL et à d'éventuels recours juridiques en Europe.

💬 Si votre code propriétaire est sur GitHub sans plan Enterprise avec data protection activée, il peut désormais alimenter Copilot — vérifiez vos paramètres de dépôt et le niveau de votre abonnement dès aujourd'hui. Pour les équipes en Europe, le RGPD impose un consentement explicite que GitHub n'a pas encore clairement formalisé, ce qui crée une fenêtre de risque réel. C'est le moment de décider si GitLab self-hosted ou les GitHub Enterprise controls valent le coût.

RégulationReglementation
1 source
Le retournement de la stratégie du Pentagone contre Anthropic
3MIT Technology Review 

Le retournement de la stratégie du Pentagone contre Anthropic

Un juge fédéral californien, Rita Lin, a temporairement bloqué jeudi dernier le Pentagone dans sa tentative de classer Anthropic comme « risque pour la chaîne d'approvisionnement » — une désignation qui aurait contraint toutes les agences gouvernementales à cesser d'utiliser ses outils d'IA. Dans une opinion de 43 pages, la juge a suspendu cette décision, interdit au Pentagone de l'appliquer et invalidé les promesses publiques faites par le secrétaire à la Défense Pete Hegseth et le président Donald Trump. Le gouvernement dispose de sept jours pour faire appel, et une deuxième procédure intentée par Anthropic reste en suspens. La start-up, cofondée par Dario Amodei, avait fourni son modèle Claude à des employés du Pentagone via Palantir pendant une grande partie de 2025, dans le cadre d'une politique d'utilisation gouvernementale spécifique interdisant notamment la « surveillance de masse des Américains » et la « guerre autonome létale », selon une déclaration sous serment du cofondateur Jared Kaplan. La rupture ne résulte pas d'un incident technique ou d'une faille de sécurité, mais d'un désaccord contractuel survenu lorsque le gouvernement a voulu traiter directement avec Anthropic — et d'une réponse politique qui a rapidement dérapé. Le 27 février, Trump a publié sur Truth Social un message dénonçant les « gauchistes fous » d'Anthropic et ordonné à toutes les agences fédérales de cesser d'utiliser ses produits. Hegseth a emboîté le pas en annonçant la désignation « supply chain risk ». Or la juge Lin a constaté que Hegseth n'avait pas suivi les procédures légales requises pour activer cette désignation : les lettres envoyées aux comités du Congrès affirmaient que des mesures moins radicales avaient été évaluées, sans fournir le moindre détail. Les avocats du gouvernement ont également dû admettre qu'ils n'avaient aucune preuve de l'existence d'un supposé « kill switch » qu'Anthropic aurait pu activer pour couper l'accès au gouvernement — argument central de la désignation. Pire, ils ont reconnu que l'ordre d'Hegseth interdisant à tout prestataire de « faire des affaires avec Anthropic » n'avait « absolument aucun effet juridique ». Cette affaire illustre une tension structurelle croissante entre l'administration Trump et les grandes entreprises d'IA qui refusent d'aligner leur politique sur les priorités idéologiques de Washington. Anthropic se trouve dans une position particulièrement délicate : elle est l'une des rares entreprises du secteur à avoir explicitement ancré la sécurité dans son identité commerciale, tout en cherchant à décrocher des contrats de défense. La juge a conclu que le gouvernement cherchait à « punir publiquement Anthropic pour son idéologie », ce qui constitue une atteinte au premier amendement. Le dossier n'est pas clos — l'appel possible et la seconde procédure maintiennent une incertitude réelle — mais la reculade judiciaire du Pentagone envoie un signal fort : utiliser des désignations de sécurité nationale comme levier de pression politique contre des entreprises privées reste juridiquement risqué, surtout quand les tweets précèdent les arguments juridiques.

💬 Le gouvernement n'avait aucune preuve du kill switch, n'a pas suivi les procédures légales, et a lancé la désignation quand même. Un tweet de Trump, une lettre vague au Congrès, des arguments que les avocats eux-mêmes ont reconnus sans effet juridique : c'est pas une stratégie, c'est de la panique. Anthropic voulait les contrats de défense sans plier sur sa politique d'usage, et là on voit ce que ça coûte vraiment.

RégulationReglementation
1 source
4Siècle Digital 

Le Sénat adopte une loi qui pourrait forcer les géants de l’IA à prouver l’origine de leurs données

Le Sénat français a adopté le 8 avril 2026 une proposition de loi imposant aux entreprises développant des systèmes d'intelligence artificielle de divulguer les données utilisées pour entraîner leurs modèles. Ce texte vise directement les géants du secteur comme OpenAI, Google, Meta ou Mistral, qui ont massivement ingéré des contenus issus d'œuvres protégées par le droit d'auteur, des articles de presse, des livres et des créations artistiques, sans compensation ni transparence vis-à-vis des auteurs concernés. L'enjeu est considérable pour les créateurs, éditeurs et médias français, qui réclament depuis l'essor de ChatGPT fin 2022 une reconnaissance légale de leur contribution aux modèles IA. Si cette loi entre en vigueur, les entreprises devront prouver l'origine de chaque jeu de données utilisé, ouvrant la voie à des négociations de licences et potentiellement à des mécanismes de rémunération. Pour l'industrie de l'IA, cela représente une contrainte technique et juridique majeure, susceptible de ralentir le déploiement de nouveaux modèles en France et en Europe. Ce vote s'inscrit dans un mouvement plus large de régulation du secteur, parallèlement à l'AI Act européen qui entre progressivement en application. Plusieurs procès intentés par des journaux américains contre OpenAI ont déjà mis en lumière la question de l'utilisation non autorisée de contenus. La France cherche ici à anticiper ces conflits en posant un cadre légal national, même si le texte devra encore passer devant l'Assemblée nationale avant de devenir définitivement loi.

UELe Sénat français impose aux développeurs d'IA de prouver l'origine de leurs données d'entraînement, ouvrant la voie à des négociations de licences et à une rémunération des créateurs, éditeurs et médias français.

💬 C'est le genre de texte de loi qu'on attendait depuis le début, et le Sénat a eu le bon sens de pas attendre que les procès américains fassent jurisprudence ici. Reste qu'entre "adopté au Sénat" et "en vigueur", il y a encore l'Assemblée nationale, et ça peut prendre du temps. Mistral va devoir jouer le jeu aussi, pas seulement les Américains, ce qui rend le truc vraiment sérieux.

RégulationReglementation
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour