
Les outils d'IA pour la santé se multiplient, mais sont-ils vraiment efficaces ?
Microsoft a lancé Copilot Health début mars 2026, une section dédiée dans son application Copilot permettant aux utilisateurs de connecter leurs dossiers médicaux et de poser des questions de santé personnalisées. Quelques jours auparavant, Amazon avait élargi l'accès à Health AI — un outil basé sur un grand modèle de langage jusqu'alors réservé aux abonnés de son service One Medical — au grand public. Ces deux lancements rejoignent ChatGPT Health, déployé par OpenAI en janvier 2026, et Claude d'Anthropic, qui peut accéder aux dossiers médicaux des utilisateurs avec leur consentement. Microsoft reçoit déjà 50 millions de questions de santé par jour sur Copilot, et la santé est devenue le sujet de discussion le plus fréquent sur l'application mobile. Karan Singhal, qui dirige l'équipe Health AI d'OpenAI, confirme une hausse « rapide, très rapide » des usages médicaux de ChatGPT, bien avant le lancement de produits dédiés.
Cette vague répond à un besoin réel : l'accès aux soins reste difficile dans de nombreux systèmes de santé, particulièrement pour certaines populations. Des chatbots disponibles 24h/24, sans jugement, capables d'orienter un patient — triage inclus — pourraient à la fois améliorer la santé des utilisateurs et décharger un système saturé. Dominic King, vice-président santé chez Microsoft AI et ancien chirurgien, voit dans les progrès récents de l'IA générative la raison principale de ce déploiement accéléré. Girish Nadkarni, directeur de l'IA au Mount Sinai Health System, reconnaît lui aussi que ces outils occupent une place légitime dans le paysage, précisément parce qu'ils comblent un vide structurel. Certaines recherches suggèrent d'ailleurs que les LLM actuels sont capables de formuler des recommandations médicales utiles et sans danger.
Mais les chercheurs indépendants tempèrent l'enthousiasme. Andrew Bean, doctorant à l'Oxford Internet Institute, estime que si ces modèles ont peut-être atteint un niveau suffisant pour être déployés, « la base de preuves doit impérativement être là ». Le problème central est celui de l'évaluation : en matière de santé, confier aux entreprises le soin de valider leurs propres produits comporte des risques, surtout si ces évaluations ne sont pas soumises à une révision externe. Même des acteurs sérieux comme OpenAI, qui mène des recherches rigoureuses, peuvent avoir des angles morts que la communauté scientifique plus large pourrait identifier. L'enjeu pour les prochains mois sera donc de savoir si l'industrie acceptera — ou si les régulateurs exigeront — des évaluations indépendantes avant tout déploiement à grande échelle de ces outils dans un domaine aussi sensible que la santé.
Les outils de santé IA déployés par Microsoft, Amazon et OpenAI devront se conformer à l'AI Act (classification haut risque) et au règlement européen sur les dispositifs médicaux (MDR) avant tout accès au marché européen, ce qui retardera probablement leur disponibilité pour les patients français et européens.



