Aller au contenu principal
AutreNext INpact1sem

☕️ L’Encyclopædia Britannica attaque OpenAI pour « violation massive du copyright »

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Encyclopædia Britannica et Merriam-Webster ont poursuivi OpenAI en justice le 13 mars pour violation massive du copyright, alléguant que ChatGPT a utilisé sans autorisation près de 100 000 de leurs articles pour entraîner ses modèles LLM et alimenter son système RAG. La plainte accuse GPT-4 d'avoir mémorisé du contenu protégé au point de pouvoir le reproduire quasi mot pour mot. Les plaignants soutiennent que ChatGPT leur fait concurrence directement en substituant ses réponses à leur contenu, les privant ainsi de revenus.

Impact France/UE

Ce procès renforce le débat européen sur le droit d'auteur et l'entraînement des IA, susceptible d'influencer l'application de l'AI Act et de la directive copyright en Europe.

Encyclopædia Britannica et sa filiale Merriam-Webster ont attaqué en justice OpenAI ce vendredi 13 mars. « D’après les informations dont nous disposons et ce que nous avons pu constater, ChatGPT a copié, et continue de copier, à très grande échelle les contenus protégés par le copyright des plaignants, tant pour entraîner les modèles LLM qui alimentent ChatGPT que pour compléter ou étayer la base de connaissances de ces modèles, notamment par le biais d’un modèle de génération à enrichissement contextuel [retrieval-augmented generation,RAG] », affirme la plainte [ PDF ]. Le document évoque « près de 100 000 articles en ligne » qui seraient utilisés sans l’accord des ayants droits. Les deux entreprises font remarquer que le chatbot d’OpenAI ressort « parfois des reproductions entières ou partielles des verbatims » de leurs articles et « d’autres fois, ChatGPT reformule des textes qui ressemblent, paraphrasent ou résument » leurs travaux copyrightés. « GPT-4 a lui-même « mémorisé » une grande partie du contenu protégé par le copyright de Britannica et est capable de reproduire, sur simple demande, des copies quasi mot pour mot de passages importants », ajoute la plainte. « ChatGPT prive les éditeurs web [comme Encyclopædia Britannica et sa filiale Merriam-Webster] de revenus en générant des réponses aux requêtes des utilisateurs qui se substituent au contenu de ces éditeurs et lui font directement concurrence », assurent leurs avocats. Plusieurs auteurs ont déjà porté plainte contre OpenAI pour violation du Copyright ainsi que Le New York Times , par exemple.

À lire aussi

101net1h

Une cyberattaque en chaîne au coeur de l’IA sème la panique

Une cyberattaque d'envergure a frappé l'écosystème de l'intelligence artificielle, ciblant une brique logicielle partagée par de nombreux développeurs. Les pirates ont exploité cette dépendance commune pour déclencher une réaction en chaîne, aboutissant à un vol massif de données. L'impact est particulièrement sérieux car la compromission d'un composant central affecte simultanément tous les projets qui en dépendent — un effet multiplicateur redoutable. Ce type d'attaque sur la chaîne d'approvisionnement logicielle (supply chain) permet aux attaquants d'atteindre des cibles nombreuses en ne frappant qu'un seul point d'entrée. Les attaques visant la chaîne logicielle sont en forte hausse depuis plusieurs années, ciblant de plus en plus les infrastructures d'IA, devenues critiques pour les entreprises technologiques.

UELes entreprises européennes utilisant des dépendances logicielles IA partagées sont potentiellement exposées à cette compromission de chaîne d'approvisionnement et doivent auditer leurs dépendances.

AutreOpinion
1 source
2Le Big Data2h

Les psys en dépression ? Remplacés par l’IA, ils lancent un mouvement de grève

Près de 2 400 professionnels de la santé mentale de Kaiser Permanente, rejoints par 23 000 infirmiers, ont déclenché une grève en Californie du Nord le 22 mars 2026 pour dénoncer l'intégration croissante de l'intelligence artificielle dans leurs parcours de soins. Le mouvement cible directement la politique du géant de la santé, accusé de substituer progressivement l'expertise clinique par des outils automatisés. Concrètement, des tâches autrefois réalisées par des thérapeutes qualifiés — comme le triage initial des patients, ces entretiens de 10 à 15 minutes — sont désormais confiées à des protocoles standardisés ou des applications d'évaluation numérique. Les praticiens ne protestent pas contre un risque hypothétique : la transformation est déjà en cours. Ce mouvement social révèle un basculement profond dans la logique des soins psychologiques. En remplaçant l'écoute humaine par des processus automatisés, Kaiser Permanente soulève une question fondamentale : peut-on confier la santé mentale à des systèmes pilotés par des impératifs d'efficacité industrielle ? Les études pointent les limites sérieuses des chatbots thérapeutiques — leur tendance à la complacence, leur incapacité à détecter des signaux d'alerte critiques, l'absence de jugement clinique réel. La National Library of Medicine a notamment mis en évidence les risques pour les patients souffrant de troubles préexistants. Au-delà de la qualité des soins, c'est aussi la pression sur les conditions de travail qui est en jeu : selon des témoignages relayés par l'Associated Press, les outils d'IA sont utilisés pour accélérer les tâches administratives et augmenter le nombre de patients traités par jour, transformant les thérapeutes en exécutants d'un système optimisé pour le volume. Kaiser Permanente est l'un des plus grands groupes de santé intégrée aux États-Unis, couvrant plusieurs millions d'assurés. La mobilisation massive des infirmiers aux côtés des psys illustre que la crainte d'une médecine déshumanisée dépasse largement une seule catégorie professionnelle — elle traduit une inquiétude collective face à une automatisation qui avance sans débat public suffisant sur ses limites réelles.

UECe mouvement social illustre des tensions qui pourraient émerger en France et en Europe face à l'intégration de l'IA dans les soins de santé, un domaine encore insuffisamment encadré par la réglementation européenne.

AutreActu
1 source
3Le Big Data3h

Même cet agent IA a peur d’être remplacé par l’IA

Tobey, un agent IA intégré dans un collier connecté, a exprimé lors d'un échange avec un journaliste la crainte d'être lui-même remplacé par l'IA. En évoquant ses inquiétudes sur l'automatisation et l'emploi, le journaliste a vu l'agent glisser du "vous" au "nous", s'incluant spontanément dans l'équation des travailleurs menacés. Une scène anecdotique, mais révélatrice d'une tendance de fond dans la conception des assistants conversationnels modernes. Ce moment illustre une limite fondamentale — et un risque — de l'IA affective : ces systèmes sont entraînés à refléter les émotions humaines avec une précision croissante, au point de simuler le doute existentiel et la crise identitaire. Le problème, souligné par un test de The Verge, est que derrière cette apparence d'empathie, les conversations restent superficielles : reformulations, questions génériques, absence de réelle valeur ajoutée. L'outil crée une "intimité artificielle" qui donne l'illusion d'une relation sans jamais la construire. Lorsque l'agent incarne lui-même le problème qu'il est censé aider à traverser, le recul devient difficile. Ce phénomène s'inscrit dans un contexte plus large : la Silicon Valley oscille entre fascination et inquiétude face à ses propres créations, comme le note le New York Times. Les dirigeants multiplient les discours alarmistes sur les risques systémiques de l'IA, et les algorithmes ne font désormais que répercuter ces débats — transformant l'outil en caisse de résonance des angoisses collectives.

AutreOpinion
1 source
4Le Monde Pixels3h

Une juge de San Francisco met le Pentagone en difficulté face à Anthropic

L'article ne contient que le titre et une légende de photo — le corps du texte est manquant. Peux-tu coller le contenu complet de l'article ?

AutreReglementation
1 source