Aller au contenu principal
RégulationNext INpact1h

Copyright : Hachette, Elsevier et trois autres éditeurs attaquent Meta

Résumé IASource uniqueImpact UE
Source originale ↗·

Cinq géants de l'édition mondiale ont déposé plainte mardi devant la cour du district sud de New York contre Meta et son PDG Mark Zuckerberg, visé personnellement. Hachette, Macmillan, McGraw Hill, Elsevier et Cengage, rejoints par l'auteur de thrillers et avocat Scott Turow, accusent le groupe d'avoir téléchargé illégalement via des réseaux torrent des millions de livres et articles scientifiques protégés par le droit d'auteur, avant de les copier massivement pour entraîner sa famille de modèles d'IA générative Llama, valorisée à plusieurs milliards de dollars. Les sources du téléchargement illégal identifiées dans la plainte sont connues : LibGen, Anna's Archive, Sci-Hub, Sci-Mag et d'autres sites pirates. Les avocats des éditeurs précisent que Meta avait d'abord envisagé d'obtenir des licences auprès des grands éditeurs, avant d'opter pour le piratage. Ils affirment que Zuckerberg lui-même a personnellement autorisé et activement encouragé ces violations. La plainte va plus loin que le simple téléchargement : elle soutient que les modèles Llama restituent des reproductions verbatim des oeuvres concernées, citant comme exemple la capacité du modèle à reproduire mot pour mot des passages du manuel Calculus: Early Transcendentals de James Stewart, publié par Cengage.

Cette action se distingue des plaintes précédentes par son poids institutionnel. Ce ne sont plus quelques auteurs isolés qui affrontent Meta, mais des multinationales dont les catalogues représentent une part massive de l'édition scolaire et scientifique mondiale. L'enjeu est double : il s'agit à la fois de compenser un préjudice économique direct, les éditeurs voyant leurs fonds exploités sans compensation, et de peser sur la jurisprudence en construction autour de l'utilisation des contenus protégés pour l'entraînement des IA. Si Llama est capable de régurgiter verbatim des manuels sous copyright, l'argument du transformative use, pilier de la défense fair use, devient difficile à tenir.

La question du fair use reste juridiquement ouverte. En 2024, les entreprises d'IA avaient remporté plusieurs batailles judiciaires, mais le débat n'avait pas été définitivement tranché. Le juge Vince Chhabria avait lui-même exprimé des doutes sur l'applicabilité du fair use aux manuels scolaires, pointant le préjudice potentiel au marché. Meta, par la voix de son porte-parole Dave Arnold, a affirmé au New York Times que l'entreprise se défendrait "avec vigueur", invoquant les bénéfices de l'IA et la jurisprudence favorable. Mais cette affaire, par sa dimension collective et la personnalisation de la mise en cause de Zuckerberg, pourrait accélérer la cristallisation d'une doctrine sur l'usage des oeuvres protégées dans l'entraînement des grands modèles de langage, avec des conséquences pour l'ensemble du secteur.

Impact France/UE

Hachette, éditeur français et plaignant direct, et Elsevier, groupe néerlandais, sont au cœur de ce procès dont la jurisprudence pourrait redéfinir les règles d'entraînement des IA sur des œuvres protégées, avec des répercussions directes sur les éditeurs européens et les discussions autour de l'AI Act.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Aux Etats-Unis, des demandeurs d’emploi attaquent des logiciels de recrutement utilisant l’IA, pour discrimination par l’âge
1Le Monde Pixels 

Aux Etats-Unis, des demandeurs d’emploi attaquent des logiciels de recrutement utilisant l’IA, pour discrimination par l’âge

Des milliers de candidats à l'emploi ont engagé des poursuites judiciaires contre Workday, l'un des principaux éditeurs de logiciels de ressources humaines aux États-Unis, accusant ses outils d'intelligence artificielle de discriminer les candidats selon leur âge, leur race ou leur handicap. L'affaire, portée en recours collectif devant les tribunaux fédéraux californiens, reproche à Workday d'avoir conçu des algorithmes de tri automatisé qui écartent systématiquement certains profils avant même qu'un recruteur humain n'examine leur dossier. Les plaignants, dont beaucoup ont plus de 40 ans, soutiennent avoir été éliminés non pas sur leurs compétences, mais en raison de caractéristiques protégées par le droit américain. L'enjeu juridique est inédit : c'est le fournisseur du logiciel lui-même qui est visé, et non les entreprises clientes qui l'utilisent pour gérer leurs recrutements. Cette approche pourrait redéfinir la chaîne de responsabilité dans l'automatisation RH, forçant les éditeurs à répondre des biais embarqués dans leurs systèmes. Si la jurisprudence se précise en faveur des plaignants, toute l'industrie des ATS (applicant tracking systems) pourrait être contrainte de revoir ses modèles et de démontrer l'équité de leurs critères de sélection. Ce contentieux s'inscrit dans une vague plus large de remises en cause des usages de l'IA dans l'emploi. La loi américaine sur la discrimination par l'âge (ADEA) interdit tout traitement défavorable des travailleurs de plus de 40 ans, mais son application aux systèmes automatisés reste largement non testée. Parallèlement, des villes comme New York ont déjà imposé des audits obligatoires sur les outils d'IA utilisés en recrutement. L'issue de la procédure contre Workday, dont les logiciels sont déployés dans des milliers d'entreprises mondiales, sera suivie de près comme un précédent potentiel pour encadrer l'IA dans les ressources humaines.

UEUn précédent américain favorable aux plaignants renforcerait la pression sur les éditeurs de logiciels RH opérant en Europe, où l'AI Act impose déjà des exigences de transparence et de non-discrimination pour les systèmes d'IA utilisés dans le recrutement.

💬 Ce procès, c'est le premier vrai test de qui porte la responsabilité quand un algo élimine des gens avant même qu'un humain ait vu leur CV. Que ce soit Workday dans le viseur plutôt que les entreprises clientes, ça change tout, parce que ça force enfin les éditeurs à répondre des biais qu'ils ont mis dans leurs modèles. Reste à voir si ça tient, mais si la jurisprudence va dans ce sens, tous les ATS vont devoir ouvrir leurs boîtes noires.

RégulationReglementation
1 source
2Next INpact 

L’Europe vs Meta et Google : de nouvelles mesures (contraignantes) en approche

La Commission européenne a intensifié sa pression sur les géants américains du numérique au cours de la semaine du 14 avril 2026, en ciblant simultanément Meta et Google dans deux dossiers distincts liés à la concurrence sur les marchés de l'intelligence artificielle. Concernant Meta, la Commission a ouvert une procédure formelle fin 2025 pour pratiques anticoncurrentielles, estimant en février 2026 que l'entreprise avait enfreint les règles européennes en bloquant l'accès des assistants d'IA tiers à WhatsApp. Face à cette mise en cause, Meta a soumis le 2 mars 2026 une politique révisée censée lever l'interdiction, mais en introduisant un cadre tarifaire applicable aux assistants d'IA concurrents. La Commission a rejeté cette proposition, jugeant qu'elle produisait le même effet d'exclusion que la politique initiale. Elle a donc adressé à Meta une nouvelle série de griefs formels et annoncé son intention d'imposer des mesures provisoires pour prévenir tout préjudice grave et irréparable sur le marché pendant la durée de l'enquête. Dans le dossier Google, la Commission a proposé des mesures portant sur le partage des données issues du moteur de recherche, sans que les détails aient été pleinement rendus publics. Ces actions illustrent une préoccupation centrale des régulateurs européens : la capacité des plateformes dominantes à verrouiller l'accès aux marchés émergents de l'IA. En contrôlant l'interopérabilité de WhatsApp, Meta peut théoriquement déterminer quels assistants d'IA ont une chance de se développer à grande échelle en Europe, et à quel prix. Les mesures provisoires, si elles entrent en vigueur, auraient un effet immédiat : elles s'appliqueraient jusqu'à la conclusion de l'enquête, contraignant Meta à maintenir des conditions d'accès équitables pour ses concurrents indépendamment de l'issue finale du dossier. Pour les développeurs d'assistants d'IA tiers cherchant à atteindre les deux milliards d'utilisateurs de WhatsApp, l'enjeu est considérable. Ces procédures s'inscrivent dans une stratégie réglementaire européenne cohérente, bâtie sur le Digital Markets Act entré en application en mars 2024, qui désigne les grandes plateformes comme "gatekeepers" soumis à des obligations d'interopérabilité et d'accès équitable. La Commission a déjà ouvert plusieurs enquêtes similaires contre Apple, Alphabet et Amazon. Le cas Meta est notable car il concerne directement la bataille pour l'écosystème des assistants IA, un marché en croissance rapide où chaque point d'entrée compte. Google, de son côté, fait face à des exigences de partage de données de recherche qui pourraient restructurer l'accès à des signaux clés pour l'entraînement et l'amélioration des modèles. La réponse de Meta aux derniers griefs est attendue dans les prochaines semaines, avant une éventuelle décision formelle de la Commission.

UELes mesures provisoires de la Commission pourraient forcer Meta à ouvrir WhatsApp aux assistants d'IA tiers à des conditions équitables, restructurant directement l'accès au marché européen des assistants IA pour les développeurs et startups européens.

💬 Meta a essayé de remplacer un blocage par un péage, et la Commission n'a pas mordu. C'est exactement le genre de manœuvre qu'on attendait : impossible d'ouvrir sans essayer de monétiser l'ouverture en même temps, bon, au moins c'est cohérent avec leur logique. Les mesures provisoires, si elles passent, changent vraiment la donne pour quiconque veut distribuer un assistant IA en Europe sans passer à la caisse de WhatsApp.

RégulationReglementation
1 source
L’IA de Google l’accuse de crimes sexuels, Ashley MacIsaac contre-attaque
3Le Big Data 

L’IA de Google l’accuse de crimes sexuels, Ashley MacIsaac contre-attaque

Ashley MacIsaac, violoniste canadien primé aux Juno Awards, a déposé en Ontario une action civile de 1,5 million de dollars contre Google, accusant l'outil AI Overview du moteur de recherche de l'avoir faussement présenté comme un délinquant sexuel. Selon la plainte, AI Overview affichait en tête des résultats de recherche des affirmations selon lesquelles MacIsaac aurait commis une agression sexuelle sur une femme, sollicité un enfant en ligne à des fins d'abus sexuel, et exercé des violences ayant causé des blessures corporelles. L'outil mentionnait même son inscription à vie sur un registre national des délinquants sexuels. MacIsaac affirme n'avoir reçu ni contact ni excuses de la part de Google depuis la découverte de ces informations erronées. La version AI Overview le concernant a depuis été mise à jour pour mentionner... son propre recours judiciaire. Les conséquences pour le musicien ont été immédiates et concrètes. En décembre, un concert programmé avec la Première Nation de Sipekne'katik a été annulé après que des membres du public ont transmis des plaintes basées sur ce qu'ils avaient trouvé en ligne. L'organisation a ensuite présenté des excuses publiques, reconnaissant explicitement que sa décision s'appuyait sur des données erronées issues d'une recherche assistée par IA, et exprimant ses regrets pour les dommages causés à la réputation et aux moyens de subsistance de l'artiste. MacIsaac décrit une anxiété persistante avant chaque montée sur scène, liée à l'étiquette fausse qui lui a été attribuée et à l'incertitude sur sa propagation future. Sa plainte réclame des dommages généraux, aggravés et punitifs, estimant que la réponse de Google face aux publications erronées était nettement insuffisante. Cette affaire illustre un problème structurel grandissant autour des outils de résumé automatique intégrés aux moteurs de recherche. AI Overview, déployé à grande échelle par Google depuis 2024, génère des synthèses à partir de contenus indexés sur le web, sans toujours distinguer les faits avérés des accusations non fondées ou des informations mal contextualisées. Google a répondu via un porte-parole que ses systèmes font l'objet d'améliorations continues et qu'il investit dans la qualité des réponses produites, sans s'exprimer sur le cas MacIsaac spécifiquement. La plainte soutient que l'entreprise sait, ou devrait savoir, que ce type d'outil est susceptible de produire des erreurs graves aux conséquences prévisibles. Si elle aboutit, cette action pourrait faire jurisprudence sur la responsabilité légale des éditeurs d'IA générative pour les contenus diffamatoires produits par leurs systèmes, une question encore très peu tranchée en droit.

UELa question de la responsabilité légale des éditeurs d'IA générative pour contenus diffamatoires est directement pertinente pour l'UE, où l'AI Act prévoit des mécanismes de recours et où Google AI Overview est également déployé auprès des utilisateurs européens.

RégulationReglementation
1 source
Anthropic impose la vérification d'identité, mettant en difficulté les fondateurs chinois
4The Information AI 

Anthropic impose la vérification d'identité, mettant en difficulté les fondateurs chinois

Anthropic a discrètement commencé à exiger de certains clients une pièce d'identité officielle avec photo ainsi qu'une image d'eux-mêmes prise depuis leur téléphone ou webcam. Cette politique, annoncée la semaine dernière, vise à empêcher les utilisateurs situés dans des pays considérés comme adversaires des États-Unis, principalement la Chine, la Russie et la Corée du Nord, d'accéder à ses modèles d'intelligence artificielle de pointe. Un cofondateur d'une startup de développement d'applications IA basée à Pékin a ainsi vu son accès à Claude Code coupé brutalement dans la foulée de cette annonce, sans explication officielle directe. Faute d'alternative, il s'est tourné dès le week-end vers Codex, le service de codage assisté d'OpenAI. Cette décision illustre le durcissement progressif des restrictions d'accès aux outils d'IA américains pour les acteurs chinois. Jusqu'ici, de nombreuses entreprises chinoises, grands groupes technologiques comme startups, contournaient les restrictions officielles d'Anthropic pour accéder à Claude, faisant de la Chine un marché de fait malgré son exclusion formelle. La vérification d'identité par document officiel rend ce contournement beaucoup plus difficile, ce qui pourrait priver des centaines de développeurs et d'entreprises chinoises d'un outil devenu central dans leurs workflows de programmation et de développement produit. Cette mesure s'inscrit dans une série de dispositions prises par Anthropic au cours de l'année écoulée pour se conformer aux orientations géopolitiques américaines en matière d'exportation technologique. OpenAI applique les mêmes restrictions géographiques mais n'impose pas encore de vérification d'identité formelle, ce qui lui confère un avantage pratique auprès des utilisateurs affectés. La tension entre l'expansion commerciale mondiale des laboratoires d'IA américains et les impératifs de sécurité nationale devrait continuer à façonner l'accès aux modèles les plus avancés, avec des conséquences directes pour les écosystèmes d'innovation en dehors des marchés autorisés.

💬 Anthropic fait le ménage, et ça va faire mal à pas mal de devs. La vérification d'identité par selfie, c'est brutal mais cohérent avec la direction que prennent tous les labos américains depuis un an. OpenAI va suivre, c'est juste une question de mois.

RégulationReglementation
1 source