« L’IA va nous détruire » : le manifeste du premier terroriste anti-ChatGPT
Un homme a lancé un cocktail Molotov contre la résidence de Sam Altman, PDG d'OpenAI, située au 950 Lombard Street à San Francisco, dans le quartier de Russian Hill, une propriété estimée à 27 millions de dollars. L'attaque, survenue début avril 2026, s'inscrit dans le cadre d'un manifeste de 45 pages intitulé « La Dernière Résistance Humaine », diffusé sur X et 4chan, qui appelle au sabotage physique des centres de données et à la destruction des infrastructures d'intelligence artificielle générative. L'assaillant, radicalisé par les thèses néo-luddites, a été placé en garde à vue. Le manifeste identifie 12 sites critiques aux États-Unis, principalement en Californie et en Oregon, hébergeant des clusters de processeurs H100 de Nvidia, et réclame l'arrêt immédiat de l'entraînement de modèles comme GPT-5 ainsi que le démantèlement des infrastructures Microsoft Azure. Le FBI et le Department of Homeland Security classent désormais les extrémistes anti-technologie comme une menace prioritaire.
Cet acte marque un tournant dans la perception des risques liés au développement de l'IA : pour la première fois, la violence physique ciblée contre des dirigeants tech s'organise autour d'une idéologie structurée et d'une liste de cibles précises. L'onde de choc a immédiatement atteint les investisseurs de Y Combinator et les dirigeants de Google DeepMind. OpenAI a multiplié son budget sécurité par cinq, déployant un blindage balistique de niveau NIJ III sur les vitres du domicile d'Altman et une garde rapprochée composée d'anciens Navy SEALs, pour un coût supérieur à 800 000 dollars par mois. Des algorithmes de surveillance des forums radicaux ont également été activés. La menace dépasse le cas individuel : elle interroge la capacité des entreprises d'IA à protéger leurs dirigeants et infrastructures dans un climat de défiance croissante.
La rhétorique du manifeste est paradoxale : son auteur cite les propres avertissements de Sam Altman et du prix Nobel Geoffrey Hinton sur les risques existentiels de l'intelligence artificielle générale pour légitimer le recours à la violence. Ce retournement sémantique rappelle la trajectoire de Theodore Kaczynski, l'Unabomber, dont le manifeste fut publié par le New York Times en 1995 après une campagne d'attentats contre des universitaires et des compagnies aériennes. Là où les luddites du XIXe siècle s'en prenaient aux métiers à tisser pour protéger leurs emplois, et où Kaczynski visait la société industrielle en général, ce nouveau mouvement cible spécifiquement les architectes des grands modèles de langage et les GPU qui les font tourner. L'analyse de CrowdStrike confirme que le document circule dans des réseaux cryptés et pourrait inspirer des actes similaires, faisant basculer le débat sur les risques de l'IA du registre académique vers celui de la sécurité nationale.
L'émergence d'un mouvement néo-luddite violent aux États-Unis pourrait inspirer des actes similaires en Europe, contraignant les entreprises et infrastructures d'IA européennes à renforcer leur sécurité physique.


