Aller au contenu principal
Quand Claude hallucine au tribunal : l'affaire Latham & Watkins et la responsabilité des avocats
RégulationMarkTechPost1h

Quand Claude hallucine au tribunal : l'affaire Latham & Watkins et la responsabilité des avocats

Résumé IASource uniqueImpact UE
Source originale ↗·

En mai 2025, le cabinet d'avocats Latham & Watkins, l'un des plus prestigieux au monde avec des honoraires dépassant 2 000 dollars de l'heure pour ses associés, a déposé devant un tribunal fédéral américain une déclaration contenant des citations académiques erronées dans l'affaire Concord Music Group v. Anthropic. Le détail qui rend l'incident saisissant : ces erreurs ont été générées par Claude, le modèle d'IA d'Anthropic que Latham & Watkins défendait précisément dans cette même procédure. Un collaborateur du cabinet avait trouvé une source académique via Google, puis demandé à Claude de formater la citation légale en lui fournissant l'URL correcte. Claude a restitué le bon lien et la bonne année de publication, mais s'est trompé sur le titre et les auteurs. L'équipe a vérifié que l'URL fonctionnait, sans contrôler si les métadonnées générées par le modèle étaient exactes. La partie adverse a repéré l'erreur. Le juge a ordonné la divulgation explicite de l'usage de l'IA et imposé des exigences de vérification humaine pour toutes les pièces futures.

Ce qui rend cet incident structurellement dangereux, c'est précisément sa nature : Claude n'a pas inventé une source fantôme, il a mal décrit une source réelle. Ce type d'erreur est bien plus difficile à détecter qu'une citation entièrement fabriquée, puisque le lien fonctionne, le document existe et l'année est correcte. L'erreur se niche au niveau des métadonnées, pas de l'existence. C'est l'équivalent légal de citer un vrai texte de loi en lui attribuant la mauvaise juridiction. La sortie de Claude était formatée, fluide, professionnelle, retournée en quelques millisecondes, sans aucun signe d'hésitation ni marqueur d'incertitude. C'est exactement cet habillage professionnel qui trompe même des avocats expérimentés.

L'incident pose une question structurelle pour l'ensemble de la profession juridique, bien au-delà d'un seul cabinet. La règle 11 des Federal Rules of Civil Procedure exige des avocats américains qu'ils certifient par leur signature que toute affirmation factuelle dans un dépôt repose sur des preuves vérifiables. Cette règle a été conçue pour un monde où la fabrication supposait l'intention ou la négligence grave. Elle n'anticipait pas un modèle capable de produire des erreurs avec une assurance totale et un rendu impeccable. Un précédent aggravant est apparu fin 2024 dans l'affaire Gauthier v. Goodyear Tire & Rubber Co., dans le district est du Texas, où un avocat avait soumis un mémoire contenant deux citations de jurisprudence inexistantes et plusieurs citations inventées, également générées par Claude. Ces deux affaires consécutives signalent une tendance : l'IA devient un vecteur de risque disciplinaire systémique pour les professions réglementées, à mesure que sa confiance apparente dépasse sa fiabilité réelle.

Impact France/UE

Les barreaux français et européens sont directement interpellés : l'usage de l'IA dans la rédaction juridique sans vérification systématique des métadonnées expose les avocats à des sanctions disciplinaires, et les ordres professionnels devront probablement formaliser des règles de vérification avant que des incidents similaires ne surviennent devant les juridictions européennes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine
1Next INpact 

☕️ La vérification d’identité d’Anthropic limite l’accès de Claude en Chine

Depuis la semaine dernière, Anthropic exige de certains de ses abonnés une vérification d'identité avec pièce officielle avec photo avant de continuer à utiliser Claude. Sans détailler publiquement les critères exacts, la société américaine confirme au site The Information que la mesure vise à bloquer l'accès commercial depuis des pays considérés comme adversaires des États-Unis, notamment la Chine, la Russie et la Corée du Nord. Anthropic invoque des raisons de sécurité nationale et indique que son équipe chargée des garde-fous « applique activement ces règles » et « prend des mesures contre les comptes en infraction ». Pour l'instant, la vérification ne touche pas l'ensemble des utilisateurs chinois, mais ses effets se font déjà sentir chez les startups qui ont bâti leur activité sur l'API Claude. Sur Idle Fish, la marketplace entre particuliers du groupe Alibaba, des vendeurs proposent déjà des contournements : comptes Claude Code préenregistrés, accès à des comptes existants, ou vente de pièces d'identité étrangères. Cette décision illustre la montée en puissance des considérations géopolitiques dans l'industrie de l'IA. Anthropic rejoint ainsi OpenAI, qui restreint déjà l'accès à ChatGPT dans plusieurs pays et exclut officiellement la Chine, la Russie et la Corée du Nord de sa liste de territoires autorisés, sans toutefois avoir mis en place à ce jour de vérification d'identité formelle. Pour les entreprises technologiques chinoises qui s'appuyaient sur Claude, cette coupure représente une rupture opérationnelle réelle, les forçant soit à migrer vers d'autres modèles, soit à adopter des pratiques de contournement risquées. Plus largement, ce type de restriction tend à accélérer la fragmentation du paysage mondial de l'IA entre blocs technologiques distincts. Ce blocage s'inscrit dans un contexte de tensions croissantes entre Washington et Pékin autour des technologies d'intelligence artificielle, qui fait suite aux restrictions déjà en vigueur sur l'exportation de semi-conducteurs américains avancés vers la Chine. Ces limitations ont poussé des acteurs comme Huawei et Baidu à intensifier le développement de leurs propres puces dédiées à l'IA. La même logique s'applique aux modèles de langage : coupée des outils américains les plus performants, la Chine a accéléré la construction de ses propres alternatives, dont la plus spectaculaire reste l'émergence de DeepSeek début 2025, qui a surpris l'ensemble de l'industrie par ses capacités. Si les restrictions d'Anthropic venaient à se généraliser ou à se durcir, elles pourraient paradoxalement renforcer l'écosystème IA chinois en lui donnant une raison supplémentaire de ne plus dépendre des modèles occidentaux.

RégulationReglementation
1 source
2Next INpact 

☕️ Linux clarifie les règles d’utilisation de l’IA dans les contributions au noyau

Le dépôt officiel du noyau Linux, administré par Linus Torvalds, intègre depuis le 6 janvier 2026 un nouveau fichier de documentation baptisé coding-assistants.rst. Ce document, passé inaperçu pendant plusieurs mois, a émergé sur Hacker News le 11 avril et fixe les règles d'utilisation des assistants d'IA générative dans les contributions au noyau. La position adoptée est pragmatique : tout code produit avec l'aide de l'IA est soumis exactement aux mêmes exigences que le code écrit par un humain seul. Le point central est la signature : seul un humain peut certifier le Developer Certificate of Origin (DCO), et le développeur qui soumet un patch assume l'entière responsabilité de son contenu, qu'il ait utilisé GitHub Copilot, ChatGPT ou tout autre outil. Le document encourage également une attribution explicite lorsque l'IA a contribué au développement, afin de suivre l'évolution de son rôle dans le processus. Ces lignes directrices ont une portée concrète pour les dizaines de milliers de contributeurs du noyau Linux, base logicielle qui alimente les serveurs, smartphones Android et systèmes embarqués de la planète entière. En exigeant que chaque commit soit endossé par un humain identifiable et juridiquement responsable, le projet préserve la conformité à la licence GPL 2.0 tout en évitant les zones grises liées au droit d'auteur du code généré par IA, un sujet encore non tranché dans la plupart des juridictions. La règle d'attribution, bien que non obligatoire, permet aussi aux mainteneurs de détecter d'éventuels problèmes de qualité ou de licence liés à des générations automatiques non vérifiées, et donne de la visibilité sur la façon dont l'IA s'intègre progressivement dans l'un des projets open source les plus complexes au monde. Cette prise de position s'inscrit dans une évolution plus large de l'attitude de Torvalds envers l'IA. Fin 2025, lors de l'Open Source Summit au Japon, il avait publiquement exprimé son scepticisme face au battage médiatique autour de l'IA tout en reconnaissant ses qualités réelles, notamment pour la maintenance du code. Plus révélateur encore, il a lui-même pratiqué le "vibe-coding" pour un projet personnel, AudioNoise, mentionné explicitement dans son fichier README. Le noyau Linux, avec ses règles désormais clarifiées, reflète donc un consensus émergent dans l'industrie : ni interdiction dogmatique ni adoption aveugle, mais responsabilité humaine maintenue au centre du processus. La réaction lapidaire d'un internaute sur Hacker News résume bien le sentiment général : "C'est... étonnamment normal ?"

UELes développeurs et entreprises européens contribuant au noyau Linux doivent désormais respecter ces règles explicites sur la responsabilité humaine du code généré par IA, clarifiant les risques juridiques liés à la GPL 2.0 dans un contexte de droit d'auteur encore non tranché en Europe.

💬 La règle est simple : tu utilises de l'IA, tu assumes quand même. C'est la seule position qui tienne, parce qu'interdire les outils aurait été ridicule et laisser un flou juridique sur la GPL encore plus dangereux pour le projet. Et Torvalds qui fait du vibe-coding pour un projet perso pendant ce temps, c'est le détail qui dit tout.

RégulationReglementation
1 source
Le procès Musk contre Altman, et l'IA au service de la démocratie
3MIT Technology Review 

Le procès Musk contre Altman, et l'IA au service de la démocratie

Le procès opposant Elon Musk à Sam Altman, fondateur d'OpenAI, est entré dans sa deuxième semaine devant un tribunal californien. Musk, qui a cofondé OpenAI en 2015 avant de quitter son conseil d'administration en 2018, accuse Altman de l'avoir induit en erreur sur la transformation de l'organisation à but non lucratif en entreprise commerciale. La journaliste Michelle Kim du MIT Technology Review, elle-même avocate, a suivi les audiences quotidiennement et rapporte que la première semaine a livré des détails inédits sur le fonctionnement interne d'OpenAI ainsi que sur la relation entre les deux hommes. En parallèle, le Pentagone a annoncé des contrats de grande ampleur avec Microsoft, Nvidia, Amazon Web Services et la start-up Reflection AI pour des travaux d'intelligence artificielle sur données classifiées, dans le cadre d'une ambition affichée de faire des forces américaines une puissance "IA en premier". Sur un autre front, Musk a conclu un accord avec la SEC, acceptant de payer une amende de 1,5 million de dollars pour avoir tardé à déclarer ses achats initiaux d'actions Twitter en 2022. Ces développements simultanés illustrent la tension croissante autour du contrôle de l'IA à plusieurs échelles. Le procès Musk-Altman soulève une question fondamentale pour toute l'industrie : peut-on engager des capitaux dans une organisation à but non lucratif et la voir se muer en entreprise valorisée à plusieurs centaines de milliards sans recours juridique ? L'issue du procès pourrait redéfinir les règles de gouvernance applicables aux futures transformations de structures similaires. Les contrats du Pentagone, qui excluent Anthropic, repositionnent Microsoft, Nvidia et AWS comme piliers de l'IA militaire américaine, un signal structurant pour l'ensemble du secteur. Pendant ce temps, un tribunal chinois a établi un précédent notable : une entreprise ne peut pas licencier des salariés au seul motif de les remplacer par des outils d'IA, une décision qui résonne dans un secteur mondial où la pression à l'automatisation ne cesse de s'intensifier. Ce cycle d'actualité dense reflète l'accélération des enjeux de gouvernance de l'IA sur tous les fronts à la fois. La genèse du procès remonte à la décision d'OpenAI, en 2019, de créer une entité commerciale pour lever des capitaux, une évolution que Musk conteste aujourd'hui en justice. Parallèlement, la Maison Blanche travaillerait à la création d'un groupe de travail chargé d'évaluer les modèles d'IA avant leur diffusion publique, signe que Washington cherche à encadrer un secteur qui échappe encore à toute régulation fédérale cohérente. Des chercheurs s'interrogent également sur l'émergence des "scientifiques artificiels", des systèmes d'IA capables de conduire des projets de recherche de manière autonome : une perspective aux possibilités immenses, mais qui soulève des inquiétudes sur l'appauvrissement de la diversité scientifique si ces outils convergent tous vers les mêmes priorités de recherche.

UELe précédent chinois interdisant les licenciements motivés uniquement par le remplacement par l'IA alimente directement le débat européen sur la protection des travailleurs face à l'automatisation, un angle encore insuffisamment couvert par l'AI Act.

RégulationReglementation
1 source
Interdiction de Doom, meme coins et 7 autres faits marquants du procès Musk contre OpenAI
4The Information AI 

Interdiction de Doom, meme coins et 7 autres faits marquants du procès Musk contre OpenAI

Le procès opposant Elon Musk à OpenAI a tenu toutes ses promesses lors de sa première semaine d'audiences au tribunal fédéral de San Francisco. Musk a témoigné sous un contre-interrogatoire musclé mené par l'avocat d'OpenAI, Bill Savitt, vétéran du barreau. Les échanges ont été tendus : Musk a accusé Savitt de vouloir le "piéger" avec ses questions, les comparant à des formulations rhétoriques manipulatrices, avant d'être rappelé à l'ordre par la juge Yvonne Gonzalez Rogers. Sam Altman et Greg Brockman, cofondateur d'OpenAI, ont suivi les débats depuis les tribunes du public, Brockman devant témoigner la semaine suivante. Dehors, des étudiants de Stanford et des journalistes faisaient la queue dès 5 heures du matin pour obtenir une place, certains se retrouvant finalement assis par terre dans une salle de débordement. L'un des moments les plus révélateurs de la semaine concerne les jurés eux-mêmes. Les neuf personnes appelées à trancher l'avenir d'OpenAI ne sont pas des initiés de la tech : parmi eux, un soignant, une infirmière, un peintre et un ancien responsable de programme chez Lockheed Martin. Fait saisissant, deux d'entre eux déclarent ne pas utiliser l'IA, deux la trouvent utile au travail, et deux autres estiment qu'elle leur fait perdre du temps car ils doivent systématiquement vérifier ses résultats. Cette composition illustre le fossé qui sépare encore l'industrie de l'intelligence artificielle du grand public. Sur le fond, Musk a appuyé une partie de son témoignage sur un article de The Information publié en 2022, révélant l'investissement de 10 milliards de dollars de Microsoft dans ChatGPT, qu'il a présenté comme la preuve d'un "bait and switch" orchestré par Altman. Ce procès s'inscrit dans une rupture profonde entre deux figures fondatrices de l'IA générative. Musk, cofondateur d'OpenAI en 2015, a quitté le conseil d'administration en 2018 avant de lancer sa propre entreprise, xAI, en 2023. Il reproche à OpenAI d'avoir trahi sa mission non-lucrative en se rapprochant de Microsoft et en orientant ses activités vers le profit. Pour trancher, la juge Gonzalez Rogers dirige les débats avec une fermeté remarquée, imposant notamment une trêve sur les réseaux sociaux aux trois protagonistes principaux, pourtant habitués des publications quotidiennes. La presse spécialisée américaine compare déjà l'atmosphère à celle d'un procès people, une comparaison qui en dit long sur la place qu'occupent désormais ces batailles juridiques dans la culture technologique américaine.

💬 Ce qui me frappe dans ce procès, c'est pas le show Musk (prévisible), c'est la composition du jury : une infirmière, un peintre, des gens qui trouvent l'IA chiante parce qu'ils doivent tout revérifier. Ce sont eux qui vont trancher l'avenir d'OpenAI, et franchement, c'est presque poétique. L'industrie jugée par ceux qu'elle n'a pas encore convaincus.

RégulationReglementation
1 source