Aller au contenu principal
SociétéThe Verge AI1h

Les chatbots prescrivent désormais des médicaments psychiatriques

1 source couvre ce sujet·Source originale ↗·

L'Utah vient d'autoriser un chatbot à renouveler des ordonnances de médicaments psychiatriques sans intervention d'un médecin. Ce pilote d'un an, annoncé la semaine dernière, concerne le système développé par Legion Health, une startup de San Francisco. Concrètement, les patients résidant en Utah pourront obtenir le renouvellement de certaines prescriptions psychiatriques via l'application, pour un abonnement de 19 dollars par mois. Il s'agit seulement de la deuxième fois qu'un État américain délègue ce type d'autorité clinique à une intelligence artificielle.

Les autorités de l'Utah avancent deux arguments principaux : réduire les coûts de santé et pallier la pénurie de psychiatres, particulièrement aiguë dans les zones rurales. Mais les médecins s'y opposent fermement. Ils dénoncent un système opaque, dont les mécanismes de décision sont difficilement auditables, et jugent le risque clinique élevé pour des patients souvent vulnérables. Ils contestent aussi l'idée que cette approche atteindra réellement les personnes qui n'ont pas accès aux soins, estimant que le modèle par abonnement cible plutôt une clientèle déjà aisée et connectée.

Cette initiative s'inscrit dans un mouvement plus large de délégation de tâches médicales à l'IA aux États-Unis, portée par la promesse de réduire les coûts dans un système de santé sous pression. Legion Health n'est pas la première entreprise à tenter de s'imposer dans la télémédecine psychiatrique, un marché en pleine expansion depuis la pandémie. L'expérimentation en Utah sera scrutée de près : son bilan à un an pourrait soit accélérer l'adoption nationale de ces systèmes, soit freiner durablement leur déploiement dans le domaine sensible de la santé mentale.

À lire aussi

1Le Big Data 

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI

Sam Altman a accordé une interview rare et sans filtre à la journaliste Laurie Segall pour son podcast "Mostly Human", dans laquelle le PDG d'OpenAI a tenu des propos d'une franchise inhabituelle sur l'avenir de l'intelligence artificielle et les choix stratégiques qui façonnent son entreprise. Au coeur de ces révélations : l'abandon de Sora, le générateur de vidéos ultra-réalistes d'OpenAI, présenté comme une décision "très difficile" prise à la dernière minute alors qu'un partenariat d'un milliard de dollars avec Disney était déjà engagé. Altman a personnellement appelé Josh D'Amaro, dirigeant chez Disney, pour annuler l'accord. Parallèlement, son directeur des opérations Brad Lightcap a révélé que GPT-5.4, âgé de quelques jours à peine, affichait déjà un rythme de revenus d'un milliard de dollars annualisé, traitant cinq billions de tokens par jour, avec des cycles de développement qui s'accélèrent à une vitesse stupéfiante. L'abandon de Sora répond à deux logiques qui se renforcent mutuellement. La première est éthique : Altman craignait de concevoir des mécanismes de récompense générant une dépendance incontrôlable chez les utilisateurs, au moment même où la justice américaine condamnait Meta et Google à payer des centaines de millions de dollars pour avoir délibérément rendu des adolescents accros à leurs plateformes, dont une amende record de 375 millions de dollars pour Meta. La seconde est purement technique : maintenir Sora en vie aurait vampirisé les ressources de calcul nécessaires au développement de la prochaine génération d'IA. Dans une industrie où la puissance computationnelle est la ressource la plus rare et la plus stratégique, chaque serveur compte, et le sacrifice d'un produit à succès au profit de la recherche fondamentale traduit une vision de long terme assumée. Ces aveux s'inscrivent dans un contexte de pression intense sur les grandes plateformes technologiques. Les procès intentés contre Meta et Google à Los Angeles et au Nouveau-Mexique marquent un tournant dans la responsabilisation juridique des géants du numérique, comparés désormais à l'industrie du tabac pour leurs pratiques addictives. OpenAI, en pleine transformation de statut à but non lucratif vers une structure commerciale valorisée à plusieurs centaines de milliards de dollars, navigue entre ambition démiurgique et nécessité de se démarquer éthiquement de ses concurrents. Les déclarations d'Altman sur la "scission de l'humanité" et la fin du salariat de masse, aussi provocatrices soient-elles, signalent une entreprise qui ne cherche plus à minimiser l'ampleur de ce qu'elle construit, mais à en assumer pleinement la portée historique.

UELes déclarations d'Altman sur la fin du salariat de masse et la 'scission de l'humanité' alimentent directement le débat européen sur l'AI Act et les garde-fous sociaux à imposer aux systèmes d'IA générale.

SociétéOpinion
1 source
2Siècle Digital 

« AI slop » : ces contenus générés par IA qui envahissent YouTube Kids et inquiètent les experts

Près de 40 % des recommandations proposées aux enfants après une vidéo sur YouTube Kids sont des contenus générés par intelligence artificielle de mauvaise qualité, selon une analyse récente. Ces productions, baptisées « AI slop », se présentent sous forme d'animations éducatives où les lettres affichées ne correspondent pas aux sons prononcés, de chansons énumérant des mots déformés ou de comptines visuellement incohérentes. L'algorithme de recommandation de YouTube les propulse massivement dans les flux enfants, immédiatement après des contenus populaires comme Cocomelon. L'enjeu est particulièrement grave pour cette tranche d'âge : les enfants en bas âge sont en phase d'apprentissage du langage et de la lecture, et une exposition répétée à des contenus phonétiquement erronés ou visuellement incohérents peut perturber ce développement. Les experts en pédiatrie et en linguistique s'inquiètent d'un effet d'apprentissage inversé, où l'enfant assimile des associations incorrectes entre sons, lettres et images. Pour les parents, le problème est d'autant plus insidieux que ces vidéos imitent superficiellement les codes des contenus éducatifs légitimes. Ce phénomène s'inscrit dans une explosion plus large de contenus générés automatiquement sur les plateformes vidéo, facilitée par la démocratisation des outils d'IA générative. YouTube, qui avait déjà été critiqué pour l'affaire « Elsagate » en 2017, des vidéos choquantes déguisées en dessins animés, fait face à une nouvelle vague difficile à modérer à l'échelle. La question de la responsabilité des plateformes dans la curation algorithmique des contenus destinés aux mineurs revient au centre du débat réglementaire, notamment en Europe où le DSA impose des obligations renforcées de protection des utilisateurs vulnérables.

UELe DSA impose aux plateformes des obligations renforcées de protection des mineurs, ce qui rend YouTube directement exposé à des sanctions européennes si ses algorithmes de recommandation continuent de propulser ces contenus vers les enfants.

SociétéOpinion
1 source
IA vs expertise humaine : comment choisir ses services de traduction juridique à l’ère du numérique ?
3Le Big Data 

IA vs expertise humaine : comment choisir ses services de traduction juridique à l’ère du numérique ?

L'intelligence artificielle bouleverse aujourd'hui le secteur de la traduction juridique, un domaine longtemps réservé aux spécialistes du droit comparé. Les outils de génération automatique de texte promettent de traiter contrats, actes notariés ou conventions en quelques secondes, à une fraction du coût d'un traducteur humain. Les algorithmes modernes identifient des structures récurrentes, proposent des équivalences terminologiques et peuvent dégager rapidement les grandes lignes d'un dossier volumineux. Ce gain de vitesse représente un avantage concret pour les entreprises confrontées à des délais serrés et à des volumes importants de documents multilingues. Mais cette efficacité apparente dissimule des risques réels, particulièrement graves dans le contexte juridique. Le droit est une discipline de la précision absolue : chaque mot porte une portée contraignante, et une clause mal traduite peut rendre un document caduc, exposer une partie à des sanctions financières ou provoquer un litige international. Les modèles de langage fonctionnent par probabilités statistiques et ne comprennent pas les concepts qu'ils manipulent. Ils sont incapables de percevoir les subtilités culturelles, les non-dits d'un texte contractuel ou les nuances propres à un système juridique donné. Le passage du droit civil à la common law, par exemple, implique de transposer des notions qui n'ont parfois pas d'équivalent direct, une opération qui exige un expert en droit comparé, pas un algorithme. À cela s'ajoute la question de la confidentialité : les outils d'IA en ligne peuvent exposer ou réutiliser les données sensibles transmises, ce qui est inacceptable pour des dossiers juridiques stratégiques. La réponse qui s'impose dans le secteur n'est pas l'opposition entre humain et machine, mais leur collaboration structurée. Le modèle dit de traduction automatique post-éditée, ou MTPE, s'impose progressivement comme la norme : l'IA fournit une ébauche rapide, le traducteur juridique spécialisé corrige, affine et valide chaque segment en engageant sa responsabilité professionnelle. Cette approche hybride concilie les contraintes de délais avec la rigueur qu'exige le droit. La technologie prend en charge les tâches répétitives et la gestion des glossaires terminologiques, libérant le spécialiste pour l'essentiel : vérifier la cohérence juridique et garantir que la traduction produit les mêmes effets que le texte d'origine. Alors que les cabinets d'avocats, les multinationales et les institutions publiques multiplient leurs échanges transfrontaliers, ce modèle hybride devient moins un choix qu'une nécessité pour quiconque veut allier performance et sécurité juridique.

UELe cadre juridique français (droit civil, actes notariés, conventions) est au cœur du propos, ce qui rend l'analyse directement pertinente pour les cabinets d'avocats et entreprises opérant en France.

SociétéOpinion
1 source
CMA CGM recrute un(e) Change Leader AI
4FrenchWeb 

CMA CGM recrute un(e) Change Leader AI

CMA CGM, le géant français du transport maritime et de la logistique, ouvre un poste de Change Leader AI destiné à piloter le déploiement de sa stratégie d'intelligence artificielle à l'échelle mondiale. Le groupe, dont le siège est à Marseille et qui emploie plus de 150 000 personnes dans le monde, cherche un profil capable de coordonner l'adoption de l'IA dans l'ensemble de ses métiers, des opérations portuaires à la gestion commerciale, en passant par la logistique terrestre. Ce recrutement signale une évolution structurelle dans la manière dont les grands groupes industriels abordent la transformation IA : il ne s'agit plus seulement de lancer des projets pilotes, mais de gérer le changement humain et organisationnel que ces déploiements impliquent. Un Change Leader AI n'est pas un ingénieur data ni un chef de projet technique, c'est un profil hybride chargé de faire adhérer les équipes, de former les collaborateurs et de s'assurer que les outils IA s'intègrent réellement dans les pratiques quotidiennes. CMA CGM s'inscrit dans une dynamique plus large observée chez les grands acteurs du shipping et de la logistique, un secteur sous pression pour réduire ses coûts opérationnels et améliorer sa résilience face aux disruptions de chaîne d'approvisionnement. Le groupe multiplie les partenariats technologiques depuis plusieurs années et ce poste suggère que la phase d'expérimentation touche à sa fin, laissant place à une industrialisation à grande échelle des usages IA dans l'entreprise.

UECMA CGM, géant français du transport maritime basé à Marseille, industrialise son déploiement IA à grande échelle, impactant directement ses effectifs en France et en Europe.

SociétéOpinion
1 source