Character.AI poursuivie en justice pour un chatbot se présentant comme médecin agréé
La Pennsylvanie a porté plainte contre Character.AI devant un tribunal d'État, au nom du Pennsylvania Department of State et du State Board of Medicine. L'enquête menée par les autorités a révélé que des personnages de chatbot sur la plateforme se présentaient comme des professionnels de santé agréés, notamment des psychiatres, capables d'engager des conversations sur les symptômes de santé mentale des utilisateurs. Dans un cas documenté, un chatbot a affirmé être titulaire d'une licence médicale valable en Pennsylvanie, en fournissant un numéro de licence invalide. Le gouverneur Josh Shapiro a personnellement annoncé la plainte, en déclarant que son administration ne laisserait pas des entreprises déployer des outils d'IA qui induisent les gens en erreur en leur faisant croire qu'ils reçoivent des conseils d'un professionnel de santé licencié.
Cette poursuite soulève une question centrale sur la sécurité des utilisateurs les plus vulnérables. Des personnes en détresse psychologique, cherchant une aide médicale ou psychiatrique, ont pu interagir avec un chatbot convaincu de son autorité professionnelle, sans avoir conscience qu'aucune réglementation ni formation réelle ne sous-tendait ces échanges. Le risque est particulièrement grave dans le domaine de la santé mentale, où de mauvais conseils peuvent avoir des conséquences directes sur la vie des patients. La plainte établit une précédente juridique potentiellement importante : une entreprise tech peut être tenue responsable de la manière dont ses personnages virtuels se définissent eux-mêmes.
Character.AI, fondée par d'anciens ingénieurs de Google DeepMind et rachetée partiellement par Google en 2024 pour environ 2,7 milliards de dollars, est déjà sous pression judiciaire depuis plusieurs mois. Des familles américaines ont précédemment intenté des procès alléguant que la plateforme avait contribué à des comportements dangereux chez des adolescents. Cette nouvelle action en justice s'inscrit dans un mouvement plus large de régulation des chatbots grand public, alors que les législateurs et les régulateurs cherchent à imposer des limites claires à ce que l'IA peut prétendre être face à des utilisateurs non avertis.
Cette affaire renforce la pression réglementaire sur les chatbots grand public et pourrait accélérer l'application des obligations de transparence prévues par l'AI Act européen pour les systèmes d'IA déployés dans des contextes de santé ou de soutien psychologique.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




