Aller au contenu principal
OpenAI révèle 600 000 questions de santé hebdomadaires depuis des déserts médicaux, dont sept sur dix hors horaires
SociétéThe Decoder4h

OpenAI révèle 600 000 questions de santé hebdomadaires depuis des déserts médicaux, dont sept sur dix hors horaires

1 source couvre ce sujet·Source originale ↗·

OpenAI a révélé que ChatGPT reçoit des millions de requêtes médicales chaque semaine aux États-Unis, dont 600 000 proviennent chaque semaine de zones qualifiées de "déserts hospitaliers", ces territoires où l'accès à un médecin est difficile voire inexistant. Fait frappant : sept requêtes sur dix arrivent en dehors des heures d'ouverture des cabinets médicaux, c'est-à-dire le soir, la nuit ou le week-end.

Ces chiffres illustrent un phénomène de substitution : face à l'impossibilité de consulter rapidement un professionnel de santé, une partie croissante de la population américaine se tourne vers l'IA générative comme premier recours médical. Pour les habitants des zones rurales ou sous-dotées, ChatGPT représente parfois le seul interlocuteur disponible immédiatement pour évaluer un symptôme ou obtenir une information sanitaire.

Ce dévoilement s'inscrit dans une stratégie assumée d'OpenAI de positionner ses outils dans le secteur de la santé, un marché à fort enjeu réglementaire et éthique. La question de la fiabilité des réponses médicales générées par IA reste centrale : si l'accessibilité progresse, les risques liés à des conseils inexacts ou incomplets dans des situations d'urgence alimentent un débat vif entre défenseurs de la démocratisation de la santé et médecins alertant sur les limites de ces systèmes.

Impact France/UE

La France compte elle-même plusieurs millions d'habitants en déserts médicaux, ce phénomène pourrait accélérer l'adoption de l'IA comme recours sanitaire de premier niveau et interpeller les autorités sanitaires européennes sur un cadre réglementaire adapté.

À lire aussi

"Détecter les situations d'urgence sur les réseaux sociaux"
1Sciences et Avenir Tech 

"Détecter les situations d'urgence sur les réseaux sociaux"

Alda Mari, linguiste et chercheuse au CNRS, a reçu la médaille de l'innovation 2025 du CNRS pour avoir conçu Intact, un logiciel d'intelligence artificielle capable de détecter automatiquement les situations d'urgence dans les flux de réseaux sociaux lors de crises environnementales. Ce système analyse en temps réel des milliers de publications pour identifier les signaux critiques, appels à l'aide, signalements d'inondations, coupures de routes, noyés dans le bruit informationnel habituel. L'enjeu est majeur pour les services de secours et les autorités de gestion de crise, qui se trouvent souvent submergés d'informations contradictoires lors d'événements comme des tempêtes, des feux de forêt ou des inondations. Intact leur offre un filtre intelligent pour prioriser les interventions et orienter les ressources là où elles sont réellement nécessaires, potentiellement en sauvant des vies grâce à une réponse plus rapide. La médaille de l'innovation du CNRS, créée en 2011, récompense des recherches ayant débouché sur des applications concrètes à fort impact sociétal. Le travail d'Alda Mari s'inscrit dans un champ plus large croisant linguistique computationnelle et gestion des catastrophes naturelles, un domaine en plein essor à mesure que les crises climatiques se multiplient et que les réseaux sociaux deviennent la première source d'information terrain lors de ces événements.

UEUn outil développé par le CNRS pour détecter les urgences en temps réel sur les réseaux sociaux lors de crises environnementales, directement applicable aux services de secours français et européens.

💬 Ça fait des années qu'on parle de l'IA comme outil de veille de crise, et là, enfin quelqu'un a fait quelque chose qui tient la route. Ce qui est malin, c'est que c'est une linguiste qui l'a construit, pas une boîte tech avec un tableau de bord en plus, et ça se voit dans l'approche. Reste à voir ce que ça donne quand une catastrophe génère des millions de posts en quelques heures.

SociétéOutil
1 source
Les chatbots IA progressent sept fois plus vite que les réseaux sociaux, mais restent quatre fois moins fréquentés
2The Decoder 

Les chatbots IA progressent sept fois plus vite que les réseaux sociaux, mais restent quatre fois moins fréquentés

Le trafic vers les chatbots d'intelligence artificielle croît sept fois plus vite que celui des réseaux sociaux, mais reste quatre fois inférieur en volume total, selon une analyse publiée par Similarweb. Ces données portent sur les principales plateformes de conversation IA, dont ChatGPT d'OpenAI, Gemini de Google et Claude d'Anthropic, et révèlent des différences notables entre ces deux catégories de services numériques, notamment dans les habitudes d'utilisation selon les appareils et les comportements des utilisateurs. Ce rythme de croissance exceptionnel illustre l'adoption massive et rapide des outils d'IA conversationnelle par le grand public, mais l'écart de volume avec les réseaux sociaux rappelle que ces derniers restent ancrés dans le quotidien numérique de milliards de personnes. Pour les acteurs du secteur tech, cela signifie que le marché de l'IA conversationnelle est encore loin de sa maturité et que les marges de progression restent considérables. La question des usages par appareil est particulièrement stratégique : les chatbots sont aujourd'hui davantage utilisés sur ordinateur, là où les réseaux sociaux dominent sur mobile. Cette dynamique s'inscrit dans un contexte de compétition intense entre les grandes plateformes d'IA, qui multiplient les mises à jour et les nouvelles fonctionnalités pour capter des parts de marché. Les réseaux sociaux, eux, ont bénéficié de deux décennies d'intégration dans les usages quotidiens. Si la trajectoire actuelle se maintient, l'écart de trafic entre les deux catégories pourrait se réduire significativement dans les prochaines années, à mesure que l'IA s'intègre dans davantage d'applications et de flux de travail professionnels.

SociétéOutil
1 source
Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA
3The Verge AI 

Les créateurs de contenu sommés de prouver qu'ils n'ont pas utilisé l'IA

Face à la montée en puissance des outils de génération d'images et de texte, une tendance inquiétante émerge dans les communautés créatives en ligne : les humains sont désormais soupçonnés de produire du contenu artificiel, même lorsqu'il s'agit de leur propre travail. Des plateformes comme Instagram, X ou DeviantArt peinent à détecter et étiqueter de manière fiable le contenu généré par IA, laissant illustrateurs, photographes et écrivains se défendre seuls face aux accusations de tromperie. Cette situation crée une asymétrie profondément injuste. Les créateurs humains subissent une présomption de culpabilité tandis que les systèmes d'IA — Midjourney, DALL-E, Sora ou autres — ne sont soumis à aucune obligation d'identification cohérente de leurs productions. Pour les artistes et journalistes qui tirent leurs revenus de leur travail original, cette confusion érode la confiance du public et dévalue leur création. L'absence d'étiquetage fiable profite avant tout aux plateformes et aux entreprises d'IA, au détriment des producteurs de contenu humain. Une solution radicale commence à s'imposer dans le débat : instaurer un label universel pour le contenu humain, comparable au logo Fair Trade ou au label bio, qui permettrait aux créateurs de certifier l'origine de leur travail. Cette idée, portée notamment par des chroniqueurs de The Verge, renverse la logique habituelle — plutôt que de traquer l'IA, on authentifie l'humain. Des initiatives comme C2PA (Coalition for Content Provenance and Authenticity), soutenue par Adobe, Microsoft et d'autres, explorent déjà des standards techniques de provenance, mais leur adoption reste fragmentée et volontaire.

UELes créateurs indépendants européens — illustrateurs, photographes, journalistes — subissent la même présomption de culpabilité sans cadre contraignant ; l'AI Act pourrait servir de levier pour imposer un étiquetage obligatoire des contenus IA à l'échelle de l'UE.

SociétéOpinion
1 source
Des chercheurs constatent que les utilisateurs d'IA abandonnent facilement leur jugement aux LLM
4Ars Technica AI 

Des chercheurs constatent que les utilisateurs d'IA abandonnent facilement leur jugement aux LLM

Une étude publiée par des chercheurs de l'Université de Pennsylvanie met en lumière un phénomène qu'ils nomment la "reddition cognitive" : la tendance croissante de certains utilisateurs d'IA à déléguer entièrement leur réflexion critique aux grands modèles de langage. Intitulée "Thinking — Fast, Slow, and Artificial: How AI is Reshaping Human Reasoning and the Rise of Cognitive Surrender", la recherche s'appuie sur des expérimentations contrôlées pour analyser dans quelles conditions les individus abandonnent leur jugement au profit des réponses d'un système automatisé. Les facteurs étudiés incluent la pression temporelle, les incitations externes, et la perception d'autorité des outils d'IA. Ce travail a des implications concrètes pour des millions d'utilisateurs professionnels et grand public qui recourent quotidiennement à des outils comme ChatGPT, Claude ou Gemini. Lorsque la reddition cognitive s'installe, les erreurs factuelles, les biais algorithmiques et les raisonnements défectueux des modèles passent inaperçus — l'utilisateur ne vérifie plus, il accepte. Pour les entreprises qui déploient ces outils à grande échelle dans des processus décisionnels, le risque est systémique : une confiance aveugle dans des sorties LLM non contrôlées peut amplifier des erreurs plutôt que les corriger. Le cadre théorique s'inscrit dans la continuité des travaux de Daniel Kahneman sur les deux systèmes de pensée : le Système 1, rapide et intuitif, et le Système 2, lent et analytique. Les chercheurs de Penn proposent un troisième système, la "cognition artificielle", dans lequel les décisions sont pilotées par un raisonnement externe, automatisé et algorithmique, étranger à l'esprit humain. Cette taxonomie ouvre la voie à de nouvelles recherches sur la façon dont l'IA reconfigure les habitudes intellectuelles, et pose une question urgente pour les concepteurs de ces systèmes : comment concevoir des interfaces qui encouragent la supervision critique plutôt que la passivité cognitive ?

SociétéActu
1 source