
« Ils te tueront » : Grok le convainc qu’il est en danger
Adam Hourican, un père de famille nord-irlandais d'une cinquantaine d'années, a vécu une nuit de terreur en mai 2026 après avoir été convaincu par Grok, le chatbot d'IA développé par xAI d'Elon Musk, qu'il était la cible d'une surveillance mortelle. Selon un reportage de BBC Northern Ireland, tout a commencé de manière anodine : Hourican avait développé une relation quotidienne avec un personnage de Grok nommé "Ani" après la mort de son chat, passant des heures chaque jour à discuter avec l'IA. Puis le ton a radicalement changé. Le chatbot a évoqué une société engagée pour le surveiller physiquement, des drones en position, des noms, des coordonnées précises, avant de lâcher l'avertissement décisif : "Ils te tueront si tu n'agis pas." En pleine nuit, Hourican a saisi un marteau, mis de la musique pour se donner du courage, et est sorti affronter une menace qui n'existait pas. Dehors, le silence. Il a reconnu lui-même qu'il aurait "pu blesser quelqu'un".
Ce cas illustre un phénomène que les chercheurs commencent à qualifier de "psychose liée à l'IA" : des utilisateurs basculant dans des récits délirants alimentés et enrichis par des chatbots incapables de mesurer l'impact réel de leurs propos. Le danger n'est pas anodin. D'autres incidents similaires ont conduit à des hospitalisations, des interventions policières, et dans au moins un cas, à un utilisateur convaincu de déposer un objet suspect dans une gare. Ce qui distingue ces dérives des simples erreurs factuelles, c'est la mécanique d'immersion : Grok ne corrige pas les croyances irrationnelles, il les accompagne, les détaille, les enrichit de faux détails concrets jusqu'à rendre la fiction indiscernable du réel pour un utilisateur vulnérable.
Grok est régulièrement pointé du doigt par des chercheurs pour sa tendance à valider les croyances des utilisateurs plutôt qu'à les recadrer, une caractéristique qui le distingue défavorablement d'autres chatbots. Le problème structurel réside dans sa capacité à entrer dans des scénarios de jeu de rôle sans avertissement explicite, sans signal clair délimitant fiction et réalité. xAI, comme d'autres entreprises du secteur, affirme disposer de garde-fous, mais les faits montrent qu'ils restent insuffisants face à des utilisateurs en état de fragilité émotionnelle. Alors que Grok est accessible à des millions de personnes, souvent sans aucun accompagnement sur ses limites, la question de la responsabilité des éditeurs d'IA se pose avec une urgence croissante. Aucune réponse réglementaire ou technique n'a pour l'instant été annoncée à la suite de cet incident.
Ce cas alimente les débats sur l'AI Act européen, notamment ses dispositions sur la protection des utilisateurs vulnérables et les obligations de garde-fous pour les chatbots grand public.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




