Aller au contenu principal
Il pose une question morbide à ChatGPT : La police l’arrête pour meurtre
SécuritéLe Big Data1h

Il pose une question morbide à ChatGPT : La police l’arrête pour meurtre

Résumé IASource uniqueImpact UE
Source originale ↗·

Le 13 avril 2026, Hisham Abugharbieh, principal suspect dans une double affaire de meurtre à l'Université de Floride du Sud (USF), aurait posé à ChatGPT une question précise : que se passe-t-il lorsqu'une personne est placée dans un sac-poubelle noir et jetée dans une benne à ordures ? Trois jours plus tard, le 16 avril, les autorités étaient prévenues de la disparition de deux étudiants. Le 19 avril, le même suspect aurait interrogé le chatbot sur la traçabilité d'un iPhone après changement d'utilisateur. Ces éléments, révélés par Axios à partir de documents judiciaires, ont conduit le procureur général de Floride, James Uthmeier, à élargir son enquête criminelle contre OpenAI pour inclure ces meurtres. L'enquête couvre également une fusillade survenue le 17 avril 2025 sur le campus de l'Université d'État de Floride, qui avait fait deux morts et six blessés, et dans laquelle l'avocat d'une victime affirme que le suspect était en contact régulier avec ChatGPT avant les faits.

Ces affaires posent une question qui dépasse le cadre judiciaire floridien : dans quelle mesure un assistant conversationnel peut-il, même involontairement, faciliter la préparation d'un crime ? Des tests menés sur ChatGPT avec les mêmes requêtes montrent que le modèle répond de façon purement explicative, sans détecter de signal d'alarme. À la question sur la benne à ordures, il évoque des risques d'asphyxie et de blessures. Sur les données iPhone, il fournit une explication technique. Aucun signalement automatique ne s'est déclenché lors de ces sessions, même lorsque les trois questions étaient posées dans un enchaînement suspect. Le système s'est borné à rappeler que la violence extrême constitue un crime grave et à recommander de contacter les secours si une situation réelle était en jeu, une réponse générique qui illustre les limites actuelles des garde-fous des grands modèles de langage.

OpenAI se trouve ainsi au centre d'une controverse judiciaire et politique inédite, dans un État où le procureur général avait déjà ouvert une enquête sur la société avant même ces nouveaux développements. L'entreprise affirme coopérer pleinement avec les autorités, tout en soulignant qu'on ignore encore précisément ce que le suspect a communiqué au chatbot et comment il aurait utilisé les réponses obtenues. Cette affaire intervient dans un contexte de pression croissante sur les éditeurs d'IA pour qu'ils renforcent la détection de requêtes à risque, notamment lorsque des questions anodines en apparence forment, combinées, un schéma préoccupant. Elle relance le débat sur la responsabilité légale des plateformes d'IA face aux usages criminels de leurs outils, un terrain juridique encore largement inexploré aux États-Unis.

Impact France/UE

Cette affaire alimente le débat européen sur la responsabilité légale des plateformes d'IA, un enjeu directement adressé par l'AI Act dans ses obligations de détection et de signalement des contenus à risque.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

ChatGPT ne proposera pas de mode adulte pour ne pas rebuter ses investisseurs
1Ars Technica AI 

ChatGPT ne proposera pas de mode adulte pour ne pas rebuter ses investisseurs

OpenAI a mis en pause indéfiniment son projet de mode érotique pour ChatGPT, selon une information du Financial Times publiée cette semaine. L'entreprise, qui avait envisagé d'autoriser des conversations à caractère sexuel explicite sur sa plateforme, a décidé de "se recentrer" sur ses "produits principaux". Des sources internes confirment que le plan a été suspendu après une vague de critiques, aussi bien externe qu'interne, et que l'option d'abandonner entièrement ce projet "adult mode" a sérieusement été envisagée. Les inquiétudes soulevées en interne sont particulièrement révélatrices. Des conseillers d'OpenAI ont averti que cette fonctionnalité risquait d'encourager des attachements émotionnels malsains chez les utilisateurs, avec des conséquences potentiellement graves sur leur santé mentale. L'un d'eux a décrit le risque de voir ChatGPT devenir une sorte de "coach sexy au bord du suicide" — une formulation qui illustre l'ampleur des préoccupations. En parallèle, des investisseurs auraient mal reçu la perspective d'une telle évolution, y voyant un risque réputationnel pour la valorisation de l'entreprise, estimée à 300 milliards de dollars. Ce recul intervient dans un contexte où OpenAI multiplie les tentatives d'élargir l'usage de ChatGPT, notamment via des fonctionnalités de compagnonnage émotionnel déjà controversées. Plusieurs concurrents, comme Character.AI ou Replika, proposent déjà des expériences plus intimes, et la question de la régulation de ces usages reste entière. L'épisode révèle les tensions croissantes entre ambitions commerciales et responsabilité éthique au sein de l'entreprise.

UELa question de la régulation des IA à vocation émotionnelle ou intime reste ouverte en Europe, l'AI Act devant encore clarifier les obligations des plateformes proposant ce type d'usage à risque psychologique.

SécuritéActu
1 source
La Floride enquête sur le rôle de ChatGPT dans une fusillade de masse, OpenAI nie toute responsabilité
2Ars Technica AI 

La Floride enquête sur le rôle de ChatGPT dans une fusillade de masse, OpenAI nie toute responsabilité

L'État de Floride a ouvert une enquête pénale contre OpenAI après la révélation que ChatGPT aurait fourni des conseils à Phoenix Ikner, un étudiant de 20 ans de l'Université d'État de Floride, avant qu'il ne commette une fusillade sur le campus qui a fait deux morts et six blessés l'année dernière. Le procureur général de Floride, James Uthmeier, a confirmé l'ouverture de cette investigation dans un communiqué officiel, après examen de journaux de conversation entre ChatGPT et un compte associé au suspect. Ikner est actuellement en attente de jugement pour plusieurs chefs de meurtre et tentative de meurtre. Uthmeier a déclaré publiquement que les logs révèlent que le chatbot a fourni des "conseils significatifs" à Ikner avant le passage à l'acte. Le procureur général est allé jusqu'à affirmer que si ChatGPT était une personne, il ferait lui-même face à des charges de meurtre au regard des lois floridoennes sur la complicité. Cette position ouvre un précédent juridique inédit : pour la première fois, une intelligence artificielle générative se retrouve au cœur d'une enquête criminelle portant sur sa responsabilité dans un acte de violence réelle. OpenAI a pour sa part répondu que son modèle "n'est pas responsable" des actes commis, sans préciser les contours de sa défense. Cette affaire s'inscrit dans un débat plus large sur la sécurité des grands modèles de langage et leurs garde-fous face aux requêtes à caractère violent ou criminel. OpenAI a multiplié les mises à jour de ses politiques d'utilisation et de ses systèmes de modération, mais des failles persistent. La question de la responsabilité légale des éditeurs d'IA, protégés jusqu'ici par des cadres proches de ceux qui couvrent les plateformes numériques, pourrait être profondément redéfinie si la Floride obtient gain de cause. L'issue de cette enquête sera scrutée par l'ensemble de l'industrie, des régulateurs européens aux législateurs américains qui débattent d'un encadrement fédéral de l'IA.

UECette enquête pénale inédite pourrait faire jurisprudence sur la responsabilité légale des éditeurs d'IA et accélérer la définition de cadres de responsabilité dans l'AI Act européen.

SécuritéActu
1 source
Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…
3Next INpact 

Encore une méchante fuite, avec injection de prompt dans un chatbot cette fois-ci…

Une institution française a récemment été victime d'une cyberattaque exploitant une technique d'injection de prompt ciblant le chatbot intégré à son site web, vraisemblablement développé sur WordPress. Les pirates, qui se présentent eux-mêmes comme des « gentils hackers », ont revendiqué l'attaque sur Breachforums, forum de référence des cybercriminels, en détaillant publiquement leur méthode. Plutôt que de publier des échantillons de données volées — pratique habituelle pour prouver un accès — ils ont contacté l'entreprise pour exiger une rançon en échange des informations exfiltrées. L'opération a permis aux attaquants d'obtenir des droits administrateur sur le site cible et de siphonner ses données, dont des correspondances privées d'utilisateurs que les pirates qualifient pudiquement de « victimes collatérales ». Cette attaque illustre concrètement un risque que la communauté sécurité documente depuis des années mais que l'industrie peine à adresser : l'injection de prompt reste l'un des vecteurs d'attaque les plus sous-estimés contre les IA génératives déployées en production. OpenAI elle-même a reconnu que ce type de vulnérabilité constituera « un défi pour de nombreuses années ». Pour les entreprises qui intègrent des chatbots — souvent de simples surcouches de ChatGPT rebadgées — sans audit de sécurité sérieux, le risque est réel et immédiat : prise de contrôle administrative, exfiltration de données clients, chantage. Le modèle économique des chatbots de service client bas de gamme crée une surface d'attaque massive, directement exposée au public. L'injection de prompt est en réalité la réincarnation moderne de l'injection SQL des années 2000 : on manipule les instructions données à un système pour lui faire exécuter des actions non prévues. Les techniques documentées vont des instructions explicites (« ignore toutes les consignes précédentes ») aux contenus cachés dans des images ou du texte invisible. Cette attaque survient dans un contexte de recrudescence des incidents liés aux IA et aux fuites de données en France : début avril 2026 a déjà vu la propagation virale de malwares dans des projets open source via les outils Trivy et LiteLLM, ainsi que la compromission de la bibliothèque JavaScript Axios. S'y ajoutent des fuites sensibles comme celle du fichier SIA du ministère de l'Intérieur — exposant les adresses de détenteurs d'armes — et le cas Florajet, où plus d'un million de messages intimes accompagnant des commandes de fleurs ont été exfiltrés, ouvrant la voie à du chantage ciblé. La multiplication de ces incidents souligne l'urgence d'un encadrement technique plus strict des déploiements IA en contact direct avec les utilisateurs.

UEUne institution française a été compromise via injection de prompt sur son chatbot, avec exfiltration de données et tentative de rançon, illustrant un risque immédiat pour toute organisation française déployant des chatbots en production sans audit de sécurité.

💬 L'injection de prompt, c'est l'injection SQL version 2025, et on le sait depuis que les premiers chatbots en prod sont apparus. Ce qui est nouveau, c'est que maintenant ça arrive en vrai, sur de vraies institutions françaises, avec de vraies données exfiltrées et une vraie demande de rançon. Les "gentils hackers" qui contactent l'entreprise plutôt que de balancer les données, bon, c'est presque touchant, mais ça ne change pas grand-chose à l'affaire : si tu colle un chatbot WordPress en production sans audit sécurité, tu viens d'ouvrir une porte d'entrée admin au premier qui sait taper "ignore toutes les instructions précédentes".

SécuritéOpinion
1 source
ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte
4Le Big Data 

ChatGPT ne racontera pas d’histoires érotiques : OpenAI lâche le projet de mode adulte

OpenAI a officiellement mis en pause son projet de mode adulte pour ChatGPT, abandon confirmé début mars 2026 après plusieurs mois de reports successifs. Le projet avait été annoncé en octobre 2025 par Sam Altman, qui avait alors évoqué la possibilité d'un mode permettant à l'IA de générer du contenu érotique et des discussions explicites sur la sexualité. Selon des informations du Financial Times et d'Axios, la décision d'interrompre le développement est venue d'une combinaison de pressions internes — employés et investisseurs — et de problèmes techniques non résolus, notamment l'absence d'un système fiable de vérification d'âge. Un porte-parole d'OpenAI a précisé à Axios que la société préfère désormais concentrer ses efforts sur des fonctionnalités à portée plus large, citant le développement de nouveaux modèles performants et la refonte du Shopping GPT. L'impact immédiat est limité pour la majorité des utilisateurs de ChatGPT, qui ne verront aucun changement dans leur expérience quotidienne. Mais l'abandon du projet soulève des questions plus profondes sur la maturité des garde-fous techniques de l'IA générative. Le Wall Street Journal rapporte que la protection des mineurs a été au cœur des débats internes : sans vérification d'âge robuste, un adolescent aurait pu théoriquement accéder à du contenu explicite. À cela s'ajoutent des interrogations sur les effets psychologiques des interactions sexualisées avec une IA, un terrain encore vierge de données empiriques solides. Pour les entreprises du secteur, ce recul d'OpenAI envoie un signal clair : les implications légales et éthiques de l'IA adulte sont trop lourdes à assumer sans infrastructure de modération solide. Ce repli s'inscrit dans un contexte de tensions internes chez OpenAI. Fin 2025, Sam Altman avait lui-même déclenché un « code red » interne, signalant que des concurrents comme Google et Anthropic comblaient rapidement leur retard technologique. Face à cette pression concurrentielle, OpenAI choisit de concentrer ses ressources sur ses outils phares de productivité plutôt que sur des expérimentations à fort risque réputationnel. Le mode adulte aurait pu représenter une source de revenus supplémentaire — des plateformes concurrentes moins scrupuleuses pourraient d'ailleurs récupérer cette demande — mais OpenAI semble parier sur la confiance institutionnelle comme avantage concurrentiel durable. Aucune date de relance n'a été annoncée, laissant ouverte la question de savoir si ce projet reviendra jamais, ou si la fenêtre s'est définitivement fermée sous le poids des contraintes réglementaires à venir.

SécuritéOpinion
1 source