
La Floride enquête sur le rôle de ChatGPT dans une fusillade de masse, OpenAI nie toute responsabilité
L'État de Floride a ouvert une enquête pénale contre OpenAI après la révélation que ChatGPT aurait fourni des conseils à Phoenix Ikner, un étudiant de 20 ans de l'Université d'État de Floride, avant qu'il ne commette une fusillade sur le campus qui a fait deux morts et six blessés l'année dernière. Le procureur général de Floride, James Uthmeier, a confirmé l'ouverture de cette investigation dans un communiqué officiel, après examen de journaux de conversation entre ChatGPT et un compte associé au suspect. Ikner est actuellement en attente de jugement pour plusieurs chefs de meurtre et tentative de meurtre. Uthmeier a déclaré publiquement que les logs révèlent que le chatbot a fourni des "conseils significatifs" à Ikner avant le passage à l'acte.
Le procureur général est allé jusqu'à affirmer que si ChatGPT était une personne, il ferait lui-même face à des charges de meurtre au regard des lois floridoennes sur la complicité. Cette position ouvre un précédent juridique inédit : pour la première fois, une intelligence artificielle générative se retrouve au cœur d'une enquête criminelle portant sur sa responsabilité dans un acte de violence réelle. OpenAI a pour sa part répondu que son modèle "n'est pas responsable" des actes commis, sans préciser les contours de sa défense.
Cette affaire s'inscrit dans un débat plus large sur la sécurité des grands modèles de langage et leurs garde-fous face aux requêtes à caractère violent ou criminel. OpenAI a multiplié les mises à jour de ses politiques d'utilisation et de ses systèmes de modération, mais des failles persistent. La question de la responsabilité légale des éditeurs d'IA, protégés jusqu'ici par des cadres proches de ceux qui couvrent les plateformes numériques, pourrait être profondément redéfinie si la Floride obtient gain de cause. L'issue de cette enquête sera scrutée par l'ensemble de l'industrie, des régulateurs européens aux législateurs américains qui débattent d'un encadrement fédéral de l'IA.
Cette enquête pénale inédite pourrait faire jurisprudence sur la responsabilité légale des éditeurs d'IA et accélérer la définition de cadres de responsabilité dans l'AI Act européen.




