
Quand Claude hallucine au tribunal : l'affaire Latham & Watkins et la responsabilité des avocats
En mai 2025, le cabinet d'avocats Latham & Watkins, l'un des plus prestigieux au monde avec des honoraires dépassant 2 000 dollars de l'heure pour ses associés, a déposé devant un tribunal fédéral américain une déclaration contenant des citations académiques erronées dans l'affaire Concord Music Group v. Anthropic. Le détail qui rend l'incident saisissant : ces erreurs ont été générées par Claude, le modèle d'IA d'Anthropic que Latham & Watkins défendait précisément dans cette même procédure. Un collaborateur du cabinet avait trouvé une source académique via Google, puis demandé à Claude de formater la citation légale en lui fournissant l'URL correcte. Claude a restitué le bon lien et la bonne année de publication, mais s'est trompé sur le titre et les auteurs. L'équipe a vérifié que l'URL fonctionnait, sans contrôler si les métadonnées générées par le modèle étaient exactes. La partie adverse a repéré l'erreur. Le juge a ordonné la divulgation explicite de l'usage de l'IA et imposé des exigences de vérification humaine pour toutes les pièces futures.
Ce qui rend cet incident structurellement dangereux, c'est précisément sa nature : Claude n'a pas inventé une source fantôme, il a mal décrit une source réelle. Ce type d'erreur est bien plus difficile à détecter qu'une citation entièrement fabriquée, puisque le lien fonctionne, le document existe et l'année est correcte. L'erreur se niche au niveau des métadonnées, pas de l'existence. C'est l'équivalent légal de citer un vrai texte de loi en lui attribuant la mauvaise juridiction. La sortie de Claude était formatée, fluide, professionnelle, retournée en quelques millisecondes, sans aucun signe d'hésitation ni marqueur d'incertitude. C'est exactement cet habillage professionnel qui trompe même des avocats expérimentés.
L'incident pose une question structurelle pour l'ensemble de la profession juridique, bien au-delà d'un seul cabinet. La règle 11 des Federal Rules of Civil Procedure exige des avocats américains qu'ils certifient par leur signature que toute affirmation factuelle dans un dépôt repose sur des preuves vérifiables. Cette règle a été conçue pour un monde où la fabrication supposait l'intention ou la négligence grave. Elle n'anticipait pas un modèle capable de produire des erreurs avec une assurance totale et un rendu impeccable. Un précédent aggravant est apparu fin 2024 dans l'affaire Gauthier v. Goodyear Tire & Rubber Co., dans le district est du Texas, où un avocat avait soumis un mémoire contenant deux citations de jurisprudence inexistantes et plusieurs citations inventées, également générées par Claude. Ces deux affaires consécutives signalent une tendance : l'IA devient un vecteur de risque disciplinaire systémique pour les professions réglementées, à mesure que sa confiance apparente dépasse sa fiabilité réelle.
Les barreaux français et européens sont directement interpellés : l'usage de l'IA dans la rédaction juridique sans vérification systématique des métadonnées expose les avocats à des sanctions disciplinaires, et les ordres professionnels devront probablement formaliser des règles de vérification avant que des incidents similaires ne surviennent devant les juridictions européennes.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



