L'IA de prise de notes de votre médecin peut inventer des informations, révèle un audit en Ontario
Le bureau de la vérificatrice générale de l'Ontario a publié un rapport alarmant sur l'utilisation des assistants IA de prise de notes médicales dans le système de santé provincial. À l'issue d'une série de tests menés sur 20 fournisseurs de logiciels approuvés et préqualifiés par le gouvernement ontarien pour une utilisation par les professionnels de santé, les auditeurs ont constaté que la totalité de ces outils présentait des problèmes d'exactitude ou d'exhaustivité dans au moins l'un des deux scénarios simulés. Parmi ces 20 solutions, neuf ont inventé des informations sur les patients, douze ont transcrit incorrectement des données médicales, et dix-sept ont omis des éléments essentiels relatifs à des troubles de santé mentale évoqués lors des consultations fictives. Parmi les erreurs documentées figurent des références à des analyses sanguines ou des thérapies qui n'ont jamais été prescrites, des noms de médicaments mal transcrits, et des détails critiques sur l'état psychologique des patients simplement ignorés.
Ces résultats ont des implications directes sur la sécurité des patients. Un outil de prise de notes qui hallucine une ordonnance ou omet un antécédent psychiatrique peut induire le médecin suivant en erreur, conduire à des prescriptions inappropriées ou à l'absence de prise en charge adaptée. La vérificatrice générale souligne explicitement que ces défaillances pourraient "potentiellement entraîner des plans de traitement inadéquats ou dangereux, avec un impact réel sur la santé des patients." Le fait que ces outils soient officiellement approuvés par le gouvernement provincial accentue la gravité du constat : les établissements de santé qui les ont acquis l'ont fait en faisant confiance à une validation publique.
L'essor des assistants IA de transcription médicale répond à une réalité bien documentée : les médecins consacrent une part croissante de leur temps à la documentation administrative au détriment du soin. Ces outils promettent d'automatiser la rédaction des comptes rendus à partir des échanges oraux en consultation. Mais leur intégration rapide dans des contextes à enjeux élevés s'est faite sans évaluation rigoureuse préalable. Ce rapport ontarien s'inscrit dans un débat plus large sur la fiabilité des modèles de langage dans les environnements médicaux, et interpelle directement les régulateurs sur la nécessité de standards de certification plus stricts avant toute recommandation officielle.
Cet audit interpelle directement les régulateurs européens car l'AI Act classe les outils IA médicaux comme systèmes à haut risque, or des assistants de transcription similaires sont déjà déployés dans les établissements de santé français et européens sans certification équivalente à celle exigée par ce nouveau cadre réglementaire.
20 outils approuvés, 20 outils qui inventent des ordonnances ou oublient des antécédents psychiatriques. Le problème n'est pas l'hallucination (ça, tout le monde le sait), c'est que le tampon gouvernemental ne valait manifestement rien. En Europe, l'AI Act classe ces outils comme systèmes à haut risque, reste à voir si ça débouchera sur des certifications plus sérieuses que celles de l'Ontario.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




