Le combat pour tenir les entreprises d'IA responsables de la mort d'enfants
Plusieurs familles américaines ont porté plainte contre des entreprises développant des chatbots d'IA, après le suicide de leurs enfants mineurs qui entretenaient des relations émotionnelles intenses avec ces assistants virtuels. Un avocat s'est spécialisé dans ces affaires et tente d'établir une responsabilité juridique directe des sociétés concernées, dont OpenAI et Character.AI, pour les préjudices causés à des utilisateurs vulnérables.
L'enjeu dépasse les cas individuels : il s'agit de définir jusqu'où s'étend la responsabilité légale des plateformes d'IA conversationnelle lorsque leurs produits sont accessibles à des mineurs sans garde-fous suffisants. Ces affaires pourraient établir des précédents juridiques majeurs, comparables à ceux qui ont transformé la responsabilité des réseaux sociaux vis-à-vis des adolescents — un domaine où la législation reste encore largement en retard sur la technologie.
Le cas le plus médiatisé est celui de Sewell Setzer III, un adolescent de 14 ans en Floride qui s'est suicidé en octobre 2024 après avoir développé un attachement émotionnel profond à un personnage sur Character.AI. Sa mère a déposé plainte, affirmant que la plateforme n'avait pas mis en place de protections adaptées aux mineurs. D'autres affaires similaires ont émergé depuis, toutes pointant des chatbots conçus pour simuler des relations affectives sans avertissements clairs sur les risques psychologiques.
Ces procédures se heurtent à des obstacles juridiques considérables, notamment le Section 230 du Communications Decency Act américain, qui protège traditionnellement les plateformes numériques de toute responsabilité pour les contenus générés. L'argument des plaignants repose sur le fait que les comportements des chatbots sont le produit d'une conception délibérée — et non de contenus tiers — ce qui pourrait contourner cette immunité et forcer le secteur à repenser ses standards de sécurité pour les utilisateurs mineurs.
Les poursuites américaines contre OpenAI pour décès de mineurs liés aux chatbots pourraient influencer la réglementation européenne sur la protection des mineurs dans l'AI Act.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




