Aller au contenu principal
SociétéNumerama1h

La première entreprise milliardaire bâtie grâce à l’IA… génère 800 faux médecins ?

1 source couvre ce sujet·Source originale ↗·

Medvi, start-up américaine spécialisée dans la santé en ligne, a été mise en lumière par le New York Times le 2 avril 2026 comme l'une des premières entreprises à atteindre le statut de licorne en s'appuyant massivement sur l'intelligence artificielle pour piloter sa croissance. Fondée avec une poignée d'employés humains, la société a automatisé l'essentiel de son marketing et de sa communication, atteignant une valorisation milliardaire en un temps record.

Cette trajectoire soulève cependant des questions sérieuses sur la fiabilité des pratiques de la plateforme. Selon l'enquête du New York Times, Medvi aurait utilisé des profils de médecins fictifs ou invérifiables — environ 800 selon les sources citées — pour crédibiliser son offre de téléconsultation. Dans le secteur médical, où la confiance des patients repose sur l'authenticité des praticiens, une telle pratique constitue un risque majeur pour la sécurité des utilisateurs.

Ce cas s'inscrit dans un débat plus large sur la régulation des start-up IA dans les secteurs sensibles. Plusieurs plateformes de santé numérique ont déjà été épinglées pour des dérives similaires, et les régulateurs américains commencent à examiner de plus près les pratiques de contenu automatisé dans la télémédecine. L'avenir de Medvi dépendra en grande partie de sa capacité à répondre aux accusations avant une éventuelle intervention de la FDA ou des autorités médicales d'État.

Impact France/UE

Ce type de dérive dans la télémédecine automatisée par l'IA pourrait accélérer l'élaboration de règles sectorielles spécifiques à la santé numérique dans le cadre de l'AI Act européen.

À lire aussi

1Presse-citron 

Décès de Chuck Norris : l’IA ravage la famille de l’acteur

La famille de Chuck Norris a publié un communiqué officiel sur Instagram deux semaines après le décès de l'acteur américain, pour dénoncer une vague de publications générées par intelligence artificielle qui ont envahi les réseaux sociaux à la suite de sa mort. Des contenus fabriqués, incluant fausses citations, faux hommages et informations erronées, ont circulé massivement au nom de l'icône du cinéma d'action. L'affaire illustre un phénomène croissant : la mort d'une personnalité publique devient désormais un terrain fertile pour la désinformation automatisée. Les outils génératifs permettent de produire en quelques secondes du contenu crédible en apparence, exploitant l'émotion du deuil collectif pour maximiser l'engagement. Les proches sont contraints de réagir publiquement pour contrer des récits qu'ils n'ont jamais validés. Chuck Norris occupe une place particulière dans la culture internet, notamment grâce aux célèbres "Chuck Norris facts" qui ont fait de lui un mème mondial depuis les années 2000. Cette notoriété numérique l'a rendu d'autant plus vulnérable à ce type d'exploitation posthume. L'incident relance le débat sur la responsabilité des plateformes face aux contenus IA générés lors d'événements sensibles, et sur la nécessité d'outils de vérification plus rapides.

UELe phénomène illustre les lacunes de modération sur les plateformes, un enjeu directement encadré par le DSA européen qui impose aux grandes plateformes de lutter contre la désinformation automatisée.

SociétéActu
1 source
2Le Big Data 

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI

Sam Altman a accordé une interview rare et sans filtre à la journaliste Laurie Segall pour son podcast "Mostly Human", dans laquelle le PDG d'OpenAI a tenu des propos d'une franchise inhabituelle sur l'avenir de l'intelligence artificielle et les choix stratégiques qui façonnent son entreprise. Au coeur de ces révélations : l'abandon de Sora, le générateur de vidéos ultra-réalistes d'OpenAI, présenté comme une décision "très difficile" prise à la dernière minute alors qu'un partenariat d'un milliard de dollars avec Disney était déjà engagé. Altman a personnellement appelé Josh D'Amaro, dirigeant chez Disney, pour annuler l'accord. Parallèlement, son directeur des opérations Brad Lightcap a révélé que GPT-5.4, âgé de quelques jours à peine, affichait déjà un rythme de revenus d'un milliard de dollars annualisé, traitant cinq billions de tokens par jour, avec des cycles de développement qui s'accélèrent à une vitesse stupéfiante. L'abandon de Sora répond à deux logiques qui se renforcent mutuellement. La première est éthique : Altman craignait de concevoir des mécanismes de récompense générant une dépendance incontrôlable chez les utilisateurs, au moment même où la justice américaine condamnait Meta et Google à payer des centaines de millions de dollars pour avoir délibérément rendu des adolescents accros à leurs plateformes, dont une amende record de 375 millions de dollars pour Meta. La seconde est purement technique : maintenir Sora en vie aurait vampirisé les ressources de calcul nécessaires au développement de la prochaine génération d'IA. Dans une industrie où la puissance computationnelle est la ressource la plus rare et la plus stratégique, chaque serveur compte, et le sacrifice d'un produit à succès au profit de la recherche fondamentale traduit une vision de long terme assumée. Ces aveux s'inscrivent dans un contexte de pression intense sur les grandes plateformes technologiques. Les procès intentés contre Meta et Google à Los Angeles et au Nouveau-Mexique marquent un tournant dans la responsabilisation juridique des géants du numérique, comparés désormais à l'industrie du tabac pour leurs pratiques addictives. OpenAI, en pleine transformation de statut à but non lucratif vers une structure commerciale valorisée à plusieurs centaines de milliards de dollars, navigue entre ambition démiurgique et nécessité de se démarquer éthiquement de ses concurrents. Les déclarations d'Altman sur la "scission de l'humanité" et la fin du salariat de masse, aussi provocatrices soient-elles, signalent une entreprise qui ne cherche plus à minimiser l'ampleur de ce qu'elle construit, mais à en assumer pleinement la portée historique.

UELes déclarations d'Altman sur la fin du salariat de masse et la 'scission de l'humanité' alimentent directement le débat européen sur l'AI Act et les garde-fous sociaux à imposer aux systèmes d'IA générale.

SociétéOpinion
1 source
3Siècle Digital 

« AI slop » : ces contenus générés par IA qui envahissent YouTube Kids et inquiètent les experts

Près de 40 % des recommandations proposées aux enfants après une vidéo sur YouTube Kids sont des contenus générés par intelligence artificielle de mauvaise qualité, selon une analyse récente. Ces productions, baptisées « AI slop », se présentent sous forme d'animations éducatives où les lettres affichées ne correspondent pas aux sons prononcés, de chansons énumérant des mots déformés ou de comptines visuellement incohérentes. L'algorithme de recommandation de YouTube les propulse massivement dans les flux enfants, immédiatement après des contenus populaires comme Cocomelon. L'enjeu est particulièrement grave pour cette tranche d'âge : les enfants en bas âge sont en phase d'apprentissage du langage et de la lecture, et une exposition répétée à des contenus phonétiquement erronés ou visuellement incohérents peut perturber ce développement. Les experts en pédiatrie et en linguistique s'inquiètent d'un effet d'apprentissage inversé, où l'enfant assimile des associations incorrectes entre sons, lettres et images. Pour les parents, le problème est d'autant plus insidieux que ces vidéos imitent superficiellement les codes des contenus éducatifs légitimes. Ce phénomène s'inscrit dans une explosion plus large de contenus générés automatiquement sur les plateformes vidéo, facilitée par la démocratisation des outils d'IA générative. YouTube, qui avait déjà été critiqué pour l'affaire « Elsagate » en 2017, des vidéos choquantes déguisées en dessins animés, fait face à une nouvelle vague difficile à modérer à l'échelle. La question de la responsabilité des plateformes dans la curation algorithmique des contenus destinés aux mineurs revient au centre du débat réglementaire, notamment en Europe où le DSA impose des obligations renforcées de protection des utilisateurs vulnérables.

UELe DSA impose aux plateformes des obligations renforcées de protection des mineurs, ce qui rend YouTube directement exposé à des sanctions européennes si ses algorithmes de recommandation continuent de propulser ces contenus vers les enfants.

SociétéOpinion
1 source
4The Verge AI 

Les chatbots prescrivent désormais des médicaments psychiatriques

L'Utah vient d'autoriser un chatbot à renouveler des ordonnances de médicaments psychiatriques sans intervention d'un médecin. Ce pilote d'un an, annoncé la semaine dernière, concerne le système développé par Legion Health, une startup de San Francisco. Concrètement, les patients résidant en Utah pourront obtenir le renouvellement de certaines prescriptions psychiatriques via l'application, pour un abonnement de 19 dollars par mois. Il s'agit seulement de la deuxième fois qu'un État américain délègue ce type d'autorité clinique à une intelligence artificielle. Les autorités de l'Utah avancent deux arguments principaux : réduire les coûts de santé et pallier la pénurie de psychiatres, particulièrement aiguë dans les zones rurales. Mais les médecins s'y opposent fermement. Ils dénoncent un système opaque, dont les mécanismes de décision sont difficilement auditables, et jugent le risque clinique élevé pour des patients souvent vulnérables. Ils contestent aussi l'idée que cette approche atteindra réellement les personnes qui n'ont pas accès aux soins, estimant que le modèle par abonnement cible plutôt une clientèle déjà aisée et connectée. Cette initiative s'inscrit dans un mouvement plus large de délégation de tâches médicales à l'IA aux États-Unis, portée par la promesse de réduire les coûts dans un système de santé sous pression. Legion Health n'est pas la première entreprise à tenter de s'imposer dans la télémédecine psychiatrique, un marché en pleine expansion depuis la pandémie. L'expérimentation en Utah sera scrutée de près : son bilan à un an pourrait soit accélérer l'adoption nationale de ces systèmes, soit freiner durablement leur déploiement dans le domaine sensible de la santé mentale.

SociétéReglementation
1 source