Aller au contenu principal
SociétéFrandroid6sem

Pourquoi l’histoire du chien « guéri » d’un cancer par ChatGPT est exagérée

Résumé IASource uniqueImpact UE
Source originale ↗·

L'histoire virale du chien Rosie, présenté comme « guéri d'un cancer grâce à ChatGPT », a fait le tour du monde en quelques heures. Un maître désespéré aurait utilisé l'IA d'OpenAI pour identifier un traitement que les vétérinaires auraient manqué, et son chien aurait survécu. Le récit, aussi touchant que spectaculaire, a été relayé par des dizaines de médias internationaux.

Mais une enquête de The Verge vient tempérer considérablement l'enthousiasme. L'IA n'a pas « guéri » Rosie — elle a tout au plus aidé le propriétaire à formuler des questions ou à orienter ses recherches. La frontière entre un outil d'aide à la recherche et un médecin miracle est ici franchie allègrement, au risque de donner une image trompeuse des capacités réelles des grands modèles de langage en matière médicale.

Dans les faits, ChatGPT ne dispose ni de l'accès aux antécédents médicaux de l'animal, ni de la capacité d'examiner un patient, ni de la formation clinique nécessaire pour établir un diagnostic fiable. Les traitements évoqués étaient des pistes documentées dans la littérature vétérinaire, accessibles à tout vétérinaire compétent. L'amélioration de l'état de Rosie reste difficile à attribuer directement à l'intervention de l'IA plutôt qu'au traitement lui-même ou à l'évolution naturelle de la maladie.

Ce type de récit pose un problème structurel pour le secteur : en surinvestissant les chatbots d'une aura de toute-puissance médicale, on encourage des comportements potentiellement dangereux — notamment le contournement de l'avis professionnel — tout en masquant les limites bien réelles de ces outils. La littératie numérique autour de l'IA reste un chantier urgent.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Verge AI 

ChatGPT n'a pas guéri le cancer d'un chien

En 2024, l'entrepreneur australien Paul Conyngham a affirmé que ChatGPT avait aidé à sauver sa chienne Rosie d'un cancer, après que les vétérinaires eurent déclaré ne plus pouvoir rien faire. L'histoire s'est rapidement répandue en ligne comme preuve du potentiel révolutionnaire de l'IA en médecine. La réalité est cependant plus nuancée que le récit viral ne le laisse croire, selon The Verge.

SociétéOpinion
1 source
2Frandroid 

Impôts 2026 : pourquoi utiliser ChatGPT ou Gemini pour sa déclaration est dangereux

La campagne de déclaration des revenus 2025 a officiellement ouvert ses portes en avril 2026, et avec elle une nouvelle tentation pour des millions de contribuables français : confier à ChatGPT, Gemini ou d'autres assistants IA le soin de remplir leur formulaire fiscal. La démarche semble séduisante, rapide, gratuite, disponible à toute heure, mais elle expose à des risques bien concrets : erreurs dans les cases, oubli de déductions légitimes, ou pire, des données erronées qui déclenchent un contrôle fiscal ou entraînent une majoration pouvant atteindre 40 % des sommes dues. Le problème central est que ces modèles de langage ne connaissent pas la situation personnelle du contribuable, ne sont pas connectés aux bases de données fiscales françaises, et peuvent confondre des règles qui ont changé d'une année sur l'autre. Une déduction pour frais réels, un crédit d'impôt pour garde d'enfant ou un revenu exceptionnel à déclarer séparément : autant de subtilités que l'IA gère mal sans contexte précis et à jour. Une erreur déclarée, même involontaire, reste une erreur aux yeux de l'administration. Ce phénomène s'inscrit dans une tendance plus large où les outils d'IA générative sont utilisés pour des démarches administratives complexes sans que les utilisateurs mesurent leurs limites. La Direction générale des Finances publiques (DGFiP) ne reconnaît aucune déclaration co-rédigée par une IA comme excuse en cas d'erreur. Les assistants virtuels officiels d'impots.gouv.fr ou les centres des impôts restent les seuls recours fiables, et plusieurs associations de consommateurs rappellent que l'IA peut servir à comprendre une notion générale, mais jamais à valider une ligne chiffrée.

UELes contribuables français risquent des majorations fiscales pouvant atteindre 40 % en cas d'erreur de déclaration assistée par IA, la DGFiP ne reconnaissant aucune circonstance atténuante liée à l'utilisation de ces outils.

SociétéOpinion
1 source
3Frandroid 

Le Nobel de chimie qui dirige l’IA chez Google : « J’aurais préféré guérir le cancer avant de lancer ChatGPT »

Demis Hassabis, PDG de Google DeepMind et lauréat du prix Nobel de chimie 2024 pour ses travaux sur AlphaFold, a exprimé publiquement un regret profond : selon lui, le lancement de ChatGPT par OpenAI en novembre 2022 a précipité l'ensemble de l'industrie dans une course commerciale qui a détourné l'IA de ses applications les plus prometteuses, notamment la recherche médicale et scientifique. Il aurait préféré que les grandes avancées en intelligence artificielle servent d'abord à guérir le cancer ou à résoudre des problèmes biologiques complexes, avant d'être massivement déployées pour automatiser des tâches bureautiques. Cet aveu touche un point sensible : la tension entre IA scientifique et IA commerciale est réelle et structurelle. Les laboratoires comme DeepMind avaient construit leur identité autour de la recherche fondamentale, AlphaFold a prédit la structure de plus de 200 millions de protéines, une révolution pour la biologie. Le pivot brutal vers les assistants conversationnels grand public a redirigé les talents, les financements et l'attention médiatique vers des produits générant des revenus immédiats, au détriment de projets à impact potentiellement transformateur mais à retour plus lent. Hassabis n'est pas le premier à formuler cette critique, mais sa position est singulière : il dirige l'un des laboratoires les plus puissants au monde, intégré à Google, donc lui-même acteur de cette course commerciale. Sa déclaration illustre les contradictions internes d'une industrie tiraillée entre ambitions scientifiques de long terme et pressions concurrentielles immédiates imposées par la montée en puissance d'OpenAI et de Microsoft.

UELe débat soulevé par Hassabis sur la priorité accordée à l'IA scientifique versus commerciale résonne en Europe, où l'AI Act et les institutions européennes cherchent précisément à orienter les développements de l'IA vers des applications à impact sociétal mesurable.

💬 Hassabis a raison sur le fond, mais bon, il dirige Google DeepMind, donc il participe à la même course qu'il dénonce. Ce qui me retient dans cette déclaration, c'est moins le regret que l'aveu implicite : l'industrie sait très bien ce qu'elle sacrifie quand elle court après les revenus. AlphaFold, c'était la promesse que l'IA allait servir à quelque chose de vraiment utile, et on a bifurqué vers des chatbots pour rédiger des mails.

SociétéOpinion
1 source
L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?
4The Information AI 

L'IA peut-elle aider un PDG de la tech à guérir le cancer du cerveau de son épouse ?

En février dernier, Alicia Kalogeropoulos, 35 ans, et son mari Alex ont appris que sa tumeur cérébrale était de retour. Diagnostiquée une première fois en 2018, Alicia avait alors subi une opération, avant de rejoindre trois ans plus tard un essai clinique pour un traitement oral qui avait réussi à contenir la maladie pendant plusieurs années. Mais la rémission avait ses limites. Face à la récidive, les oncologues du Memorial Sloan Kettering Cancer Center de New York ont recommandé une nouvelle chirurgie, suivie probablement d'une chimiothérapie et d'une radiothérapie. Son mari, PDG dans la tech, savait ce que les études lui avaient appris : ce protocole ne guérit pas. Il a alors ouvert ChatGPT et formulé une demande précise : concevoir un plan de traitement centré sur les thérapies n'affaiblissant pas le système immunitaire, en explorant toutes les voies d'attaque disponibles contre la tumeur. Ce recours à l'intelligence artificielle comme conseiller médical de second rang illustre une tension croissante entre l'urgence vécue par les patients et les limites institutionnelles de la médecine. Pour des familles confrontées à des diagnostics pronostiquement sombres, les chatbots d'IA représentent un accès immédiat à une synthèse d'une littérature médicale impossible à lire seul. L'enjeu n'est pas de remplacer le médecin, mais d'arriver en consultation avec des questions que personne d'autre n'aurait pensé à poser. Cette histoire s'inscrit dans un débat plus large sur la place de l'IA dans la prise de décision médicale. Des outils comme ChatGPT ou ses concurrents ne disposent pas de données patients en temps réel, ne peuvent pas commander d'examens ni évaluer des images médicales, et leurs recommandations ne sont pas validées cliniquement. Pourtant, à mesure que ces modèles intègrent davantage de littérature biomédicale, certains médecins commencent eux-mêmes à les utiliser comme aide à la décision. La question de fond reste entière : jusqu'où peut-on faire confiance à une IA pour explorer des options que des spécialistes humains, submergés de patients, n'auraient pas le temps d'envisager ?

SociétéOpinion
1 source