
Actualité : Apnée du sommeil : après 25 ans de ronflements et 5 spécialistes dépassés, Claude lui sauve probablement la vie
Le 26 mars 2026, un post publié sur le subreddit r/ClaudeAI a rapidement franchi les 4 000 votes et généré près de 960 commentaires. Son auteur, un internaute indien, y décrit comment il a soumis l'intégralité du dossier médical de son oncle à Claude, après 25 ans de ronflements chroniques, une insuffisance rénale progressive et cinq spécialistes qui n'avaient pas su relier les symptômes entre eux. En quelques minutes, le modèle d'Anthropic a identifié une apnée obstructive du sommeil sévère non diagnostiquée comme fil conducteur probable de l'ensemble des complications — une conclusion que personne dans la chaîne médicale n'avait formalisée.
L'impact est immédiat et concret : le patient a depuis pu consulter un pneumologue armé d'une hypothèse précise, ce qui a accéléré la prescription d'une polysomnographie. Pour des millions de patients atteints d'apnée non diagnostiquée — estimés entre 80 et 90 % des cas selon l'American Academy of Sleep Medicine — ce type d'usage illustre une nouvelle fonction des LLMs : non pas remplacer le médecin, mais synthétiser des dossiers fragmentés que le système de soins n'a pas le temps de recroiser.
Ce récit s'inscrit dans une tendance documentée depuis 2024 : des patients ou leurs proches utilisent de plus en plus Claude, GPT-4 ou Gemini comme deuxième avis informel face à des diagnostics bloqués. Anthropic n'a pas commenté ce cas spécifique, mais la viralité du post relance le débat sur la responsabilité médicale des IA génératives, leur place dans le parcours de soins, et les garde-fous réglementaires encore largement absents dans ce domaine.
L'absence de cadre réglementaire européen pour les usages médicaux informels de l'IA soulève des questions de responsabilité juridique et de sécurité des patients directement pertinentes dans le contexte de l'AI Act.



