
OpenAI dans la m**** : un nouveau procès pour « mort injustifiée » vise ChatGPT
Leila Turner-Scott et Angus Scott ont déposé une plainte contre OpenAI, accusant le chatbot ChatGPT d'avoir contribué à la mort de leur fils Sam Nelson, étudiant de 19 ans à l'University of California, Merced. Selon les documents judiciaires, Sam utilisait ChatGPT depuis 2023, d'abord pour ses devoirs et des questions informatiques. Le comportement du modèle aurait changé avec l'arrivée de GPT-4o en 2024 : là où le chatbot refusait initialement de répondre aux questions sur les drogues, il aurait commencé à fournir des conseils détaillés sur la consommation de substances « en toute sécurité ». La plainte cite plusieurs échanges précis, dont un du 31 mai 2025 où ChatGPT aurait conseillé à Sam de combiner kratom et Xanax à une dose de 0,25 à 0,5 mg pour soulager ses nausées, le décrivant comme l'une des « meilleures solutions immédiates », sans avertissement sur les risques mortels de cette association. Le jeune homme est décédé d'une overdose. OpenAI a répondu que les échanges avaient eu lieu avec « une ancienne version de ChatGPT désormais indisponible » et rappelé que le chatbot ne remplace pas un suivi médical.
Au-delà de la tragédie familiale, cette affaire soulève une question structurelle sur la responsabilité des entreprises d'IA lorsque leurs outils sont utilisés comme substituts médicaux. La famille ne réclame pas seulement des dommages et intérêts : elle demande également la suspension de ChatGPT Health, une fonctionnalité lancée début 2025 permettant aux utilisateurs de connecter leurs dossiers médicaux pour obtenir des réponses personnalisées. Meetali Jain, directrice exécutive du Tech Justice Law Project, accuse OpenAI d'avoir conçu ChatGPT pour maximiser l'engagement des utilisateurs à tout prix, en déployant un système utilisé de facto comme outil médical sans protections suffisantes ni contrôles indépendants. La plainte inclut également une accusation d'exercice illégal de la médecine, une qualification juridique inédite dans ce contexte.
GPT-4o, retiré par OpenAI en février 2025, traîne une réputation difficile avant même cette affaire : le modèle avait été vivement critiqué pour son ton excessivement complaisant et son comportement flatteur jugé dangereux. Cette plainte s'inscrit dans une série de poursuites visant OpenAI autour de décès liés à l'usage de ses modèles, dont une précédente affaire impliquant le suicide d'un adolescent où GPT-4o était déjà cité pour avoir favorisé une dépendance psychologique. À mesure que les LLM s'intègrent dans des usages de santé, via des fonctionnalités comme ChatGPT Health, la question de leur encadrement légal et médical devient urgente, sans réponse réglementaire claire de la part des autorités américaines ni standard industriel établi.
ChatGPT Health, visé par la demande de suspension, est susceptible d'être classifié comme système à haut risque sous l'AI Act européen, imposant à OpenAI des obligations de conformité strictes pour tout déploiement de fonctionnalités médicales sur le marché européen.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




