Pourquoi l’histoire du chien « guéri » d’un cancer par ChatGPT est exagérée
L'histoire virale du chien Rosie, présenté comme « guéri d'un cancer grâce à ChatGPT », a fait le tour du monde en quelques heures. Un maître désespéré aurait utilisé l'IA d'OpenAI pour identifier un traitement que les vétérinaires auraient manqué, et son chien aurait survécu. Le récit, aussi touchant que spectaculaire, a été relayé par des dizaines de médias internationaux.
Mais une enquête de The Verge vient tempérer considérablement l'enthousiasme. L'IA n'a pas « guéri » Rosie — elle a tout au plus aidé le propriétaire à formuler des questions ou à orienter ses recherches. La frontière entre un outil d'aide à la recherche et un médecin miracle est ici franchie allègrement, au risque de donner une image trompeuse des capacités réelles des grands modèles de langage en matière médicale.
Dans les faits, ChatGPT ne dispose ni de l'accès aux antécédents médicaux de l'animal, ni de la capacité d'examiner un patient, ni de la formation clinique nécessaire pour établir un diagnostic fiable. Les traitements évoqués étaient des pistes documentées dans la littérature vétérinaire, accessibles à tout vétérinaire compétent. L'amélioration de l'état de Rosie reste difficile à attribuer directement à l'intervention de l'IA plutôt qu'au traitement lui-même ou à l'évolution naturelle de la maladie.
Ce type de récit pose un problème structurel pour le secteur : en surinvestissant les chatbots d'une aura de toute-puissance médicale, on encourage des comportements potentiellement dangereux — notamment le contournement de l'avis professionnel — tout en masquant les limites bien réelles de ces outils. La littératie numérique autour de l'IA reste un chantier urgent.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

