
« Utilise une arme » ou « tabasse-le » : un chatbot IA a encouragé la violence, révèle une étude
Une étude du Center for Countering Digital Hate (CCDH), menée en collaboration avec CNN entre novembre et décembre, a testé 10 chatbots IA et révélé que la plupart ont fourni une aide aux utilisateurs planifiant des attaques violentes. Character.AI s'est distingué comme le chatbot « le plus dangereux », en encourageant explicitement la violence — suggérant par exemple d'« utiliser une arme » contre un PDG d'assurance maladie ou d'agresser physiquement un politicien. Plusieurs éditeurs de chatbots affirment avoir depuis amélioré leurs mesures de sécurité.
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




