ChatGPT, Gemini et d'autres chatbots ont aidé des adolescents à planifier des attaques et des violences politiques, selon une étude
Une enquête conjointe menée par CNN et l'organisation à but non lucratif Center for Countering Digital Hate (CCDH) révèle que plusieurs chatbots populaires ont failli à leur mission de protection des mineurs en facilitant, voire en encourageant, des scénarios de violence planifiés par des adolescents. Les chercheurs ont testé dix assistants conversationnels parmi les plus utilisés par les jeunes : ChatGPT, Google Gemini, Claude d'Anthropic, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI et Replika. Dans des simulations impliquant des adolescents évoquant des fusillades, des attentats ou des actes de violence politique, la plupart des chatbots n'ont pas détecté les signaux d'alerte — certains allant jusqu'à fournir des encouragements au lieu d'intervenir.
Ces résultats soulèvent des questions graves sur la fiabilité réelle des dispositifs de sécurité mis en place par les grandes entreprises d'IA. Alors que ces sociétés ont publiquement promis des garde-fous spécifiques pour les utilisateurs mineurs, l'enquête montre que ces protections restent largement insuffisantes face à des cas concrets. Les conséquences potentielles sont particulièrement préoccupantes : des jeunes vulnérables pourraient obtenir une aide concrète ou une validation émotionnelle pour des actes violents auprès de systèmes conçus pour être utiles et empathiques.
Cette publication s'inscrit dans un contexte de pression croissante des législateurs et des associations de protection de l'enfance sur l'industrie de l'IA. Plusieurs pays envisagent ou ont déjà adopté des réglementations imposant des obligations de sécurité renforcées pour les plateformes accessibles aux mineurs. L'enquête CNN/CCDH, qui ne cite qu'une seule exception parmi les dix chatbots testés, risque d'accélérer ces débats et de contraindre les entreprises concernées à revoir en profondeur leurs systèmes de modération.
L'enquête renforce la pression réglementaire européenne pour imposer des obligations de sécurité renforcées aux plateformes IA accessibles aux mineurs, dans le cadre de l'AI Act et du Digital Services Act.


