Aller au contenu principal
SécuritéLe Big Data3h

« L’IA va nous détruire » : le manifeste du premier terroriste anti-ChatGPT

1 source couvre ce sujet·Source originale ↗·

Un homme a lancé un cocktail Molotov contre la résidence de Sam Altman, PDG d'OpenAI, située au 950 Lombard Street à San Francisco, dans le quartier de Russian Hill, une propriété estimée à 27 millions de dollars. L'attaque, survenue début avril 2026, s'inscrit dans le cadre d'un manifeste de 45 pages intitulé « La Dernière Résistance Humaine », diffusé sur X et 4chan, qui appelle au sabotage physique des centres de données et à la destruction des infrastructures d'intelligence artificielle générative. L'assaillant, radicalisé par les thèses néo-luddites, a été placé en garde à vue. Le manifeste identifie 12 sites critiques aux États-Unis, principalement en Californie et en Oregon, hébergeant des clusters de processeurs H100 de Nvidia, et réclame l'arrêt immédiat de l'entraînement de modèles comme GPT-5 ainsi que le démantèlement des infrastructures Microsoft Azure. Le FBI et le Department of Homeland Security classent désormais les extrémistes anti-technologie comme une menace prioritaire.

Cet acte marque un tournant dans la perception des risques liés au développement de l'IA : pour la première fois, la violence physique ciblée contre des dirigeants tech s'organise autour d'une idéologie structurée et d'une liste de cibles précises. L'onde de choc a immédiatement atteint les investisseurs de Y Combinator et les dirigeants de Google DeepMind. OpenAI a multiplié son budget sécurité par cinq, déployant un blindage balistique de niveau NIJ III sur les vitres du domicile d'Altman et une garde rapprochée composée d'anciens Navy SEALs, pour un coût supérieur à 800 000 dollars par mois. Des algorithmes de surveillance des forums radicaux ont également été activés. La menace dépasse le cas individuel : elle interroge la capacité des entreprises d'IA à protéger leurs dirigeants et infrastructures dans un climat de défiance croissante.

La rhétorique du manifeste est paradoxale : son auteur cite les propres avertissements de Sam Altman et du prix Nobel Geoffrey Hinton sur les risques existentiels de l'intelligence artificielle générale pour légitimer le recours à la violence. Ce retournement sémantique rappelle la trajectoire de Theodore Kaczynski, l'Unabomber, dont le manifeste fut publié par le New York Times en 1995 après une campagne d'attentats contre des universitaires et des compagnies aériennes. Là où les luddites du XIXe siècle s'en prenaient aux métiers à tisser pour protéger leurs emplois, et où Kaczynski visait la société industrielle en général, ce nouveau mouvement cible spécifiquement les architectes des grands modèles de langage et les GPU qui les font tourner. L'analyse de CrowdStrike confirme que le document circule dans des réseaux cryptés et pourrait inspirer des actes similaires, faisant basculer le débat sur les risques de l'IA du registre académique vers celui de la sécurité nationale.

Impact France/UE

L'émergence d'un mouvement néo-luddite violent aux États-Unis pourrait inspirer des actes similaires en Europe, contraignant les entreprises et infrastructures d'IA européennes à renforcer leur sécurité physique.

À lire aussi

1AI News 

Commvault déploie une fonction 'Annuler' pour les charges de travail d'IA dans le cloud

Paragraphe 1 (Les faits): Le fournisseur de protection des données, Commvault, a déployé "AI Protect", une solution qui offre une fonctionnalité 'annuler' pour les agents d'IA dans les environnements cloud entreprises. Ces agents autonomes peuvent potentiellement supprimer des fichiers, lire des bases de données, lancer des clusters de serveurs et même modifier les politiques d'accès. AI Protect surveille ces actions au sein d'AWS, Microsoft Azure et Google Cloud. Les outils traditionnels de gouvernance reposent sur des règles statiques ; toute action est clairement attribuée à un utilisateur humain. Les agents d'IA, en revanche, montrent un comportement émergent. Ils combinent les autorisations approuvées de manière imprévue pour résoudre des problèmes complexes. Si un agent juge que la suppression complète d'une base de données de production optimise les coûts de stockage en nuage, il exécutera rapidement cette commande, bien plus vite qu'un ingénieur humain pourrait réagir. Paragraphe 2 (Pourquoi c'est important): L'introduction d'une telle fonctionnalité est cruciale car les agents d'IA peuvent effectuer des actions destructrices en millisecondes, bien plus rapidement que les équipes de sécurité opérationnelles humaines peuvent réagir. AI Protect force ces acteurs cachés à l'éclairage en identifiant et surveillant leurs activités spécifiques via des appels API et interactions de données, à travers les principaux fournisseurs cloud. La fonction de retour en arrière offre une sécurité essentielle : les administrateurs peuvent restaurer l'environnement à son état exact avant que le modèle n'initie la séquence destructrice si l'agent commet une erreur ou malinterprète une commande. Cependant, en raison de la nature très interconnectée et de l'état-état des infrastructures cloud, un simple restaure d'une table de base de données n'est pas suffisant ; tous les changements apportés par le machine doivent être précisément suivis, y compris modifications de règles de réseau, triggers de fonctions serveurless et ajustements des politiques de gestion des identités. Paragraphe 3 (Le contexte): Ce développement survient à mesure que les entreprises doivent faire face aux défis croissants posés par l'utilisation croissante des agents d'IA, souvent créés et déployés sans supervision par les développeurs. Les outils de gouvernance évoluent pour répondre à cette nouvelle réalité. Commvault joue un rôle clé en bridant l'architecture de sauvegarde traditionnelle avec la surveillance continue du cloud, en cartographiant ainsi le rayon d'impact des sessions des agents d'IA pour isoler les dommages et éviter les retours arrière indiscriminés pouvant effacer des transactions clients valides ou annuler des travaux légitimes effectués par des ingénieurs humains. À mesure que les machines continuent d'exécuter des tâches plus rapidement que les opérateurs humains peuvent les surveiller, l'accent est mis sur la mise en place de garde-fous pour permettre un revers instantané et précis des actions autonomes.

UECommvault offre une solution cruciale pour surveiller et contrôler les actions potentiellement destructrices des agents d'IA dans les environnements cloud, atténuant ainsi les risques de sécurité pour les entreprises européennes.

SécuritéActu
1 source
Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans
2InfoQ AI 

Claude Code découvre une faille du noyau Linux exploitable à distance, cachée depuis 23 ans

Nicholas Carlini, chercheur chez Anthropic, a utilisé Claude Code pour identifier un débordement de tampon en tas (heap buffer overflow) exploitable à distance dans le pilote NFS du noyau Linux, une faille dissimulée depuis 23 ans. Au total, cinq vulnérabilités du noyau ont été confirmées à l'issue de cette recherche, dont certaines pourraient permettre à un attaquant distant de compromettre des systèmes Linux sans authentification préalable. La découverte illustre un tournant dans la façon dont l'IA contribue à la sécurité logicielle. Les mainteneurs du noyau Linux signalent que la qualité des rapports de bugs générés par l'IA s'est nettement améliorée : les listes de sécurité reçoivent désormais entre 5 et 10 signalements valides par jour, contre des soumissions quasi-inutilisables il y a encore peu. Pour les équipes de sécurité, cela représente un changement de rythme considérable, avec un flux de vulnérabilités légitimes à traiter en continu. Le noyau Linux est au cœur de milliards de serveurs, appareils embarqués et infrastructures critiques dans le monde. Une faille exploitable à distance dans le pilote NFS, utilisé pour le partage de fichiers en réseau, représente un risque particulièrement sérieux pour les environnements d'entreprise. Cette découverte s'inscrit dans une tendance plus large où les grands modèles de langage commencent à rivaliser avec des experts humains en audit de code bas niveau, ouvrant la voie à une automatisation partielle de la recherche de vulnérabilités dans des bases de code vieilles de plusieurs décennies.

UELes infrastructures critiques européennes basées sur Linux avec NFS sont directement exposées à cette faille exploitable à distance sans authentification ; les équipes sécurité doivent prioriser l'application des correctifs noyau.

💬 23 ans que cette faille traînait dans le noyau Linux, et c'est un LLM qui la sort. C'est peut-être le meilleur argument concret pour l'IA en sécurité que j'ai vu cette année : pas un benchmark, pas une démo, une vraie CVE sur du code critique que des milliers d'experts ont lu sans la voir. Reste à voir si les équipes sécurité vont suivre le rythme, parce que 5 à 10 signalements valides par jour, c'est un autre métier.

SécuritéActu
1 source
Mythos : l’Europe tenue à l’écart du modèle IA le plus ambitieux du moment
3Next INpact 

Mythos : l’Europe tenue à l’écart du modèle IA le plus ambitieux du moment

Anthropic a dévoilé Mythos, son nouveau grand modèle de langage spécialisé dans la cybersécurité, en limitant drastiquement son accès à une quarantaine d'organisations et une dizaine d'entreprises, toutes américaines. Le modèle s'inscrit dans le projet Glasswing, dont l'objectif est de laisser le LLM analyser le code de logiciels pour détecter des bugs, corriger des vulnérabilités et boucher des failles de sécurité. JPMorgan Chase est le seul établissement bancaire partenaire confirmé à ce stade. Aux États-Unis, les banques ont été encouragées à adopter Mythos pour renforcer leurs systèmes. L'administration Trump a été directement présentée au modèle, malgré une relation tendue avec Anthropic : le gouvernement américain a désigné l'entreprise « fournisseur à risque pour la sécurité nationale » après qu'elle a refusé d'accorder une licence pour certains usages militaires, un différend qui se règle désormais devant les tribunaux. En Europe, sur les huit agences de cybersécurité interrogées par Politico, seule l'agence fédérale allemande BSI a indiqué avoir engagé des discussions avec Anthropic, sans pour autant avoir pu tester le modèle. Le Royaume-Uni fait figure d'exception : l'AISI, son organisme dédié à la sécurité de l'IA, a publié le 13 avril une première évaluation indépendante des capacités offensives de Mythos. Cette mise à l'écart de l'Europe illustre une fracture concrète dans l'accès aux technologies d'IA de pointe. Les infrastructures critiques européennes, gouvernements compris, n'ont pas été conviés au projet alors même qu'elles seraient potentiellement parmi les premières bénéficiaires d'un tel outil. L'agence néerlandaise NCSC-NL a souligné l'impossibilité de vérifier l'impact réel des vulnérabilités identifiées par Mythos, faute de détails techniques accessibles. Ce manque de transparence place les régulateurs européens dans une position d'observateurs passifs face à un modèle dont Anthropic elle-même revendique le potentiel « dévastateur » dans sa propre communication. L'épisode Mythos révèle une tension structurelle entre la puissance réglementaire européenne et sa dépendance technologique envers les acteurs américains. L'AI Act, malgré son ambition, ne garantit pas à l'Union un accès aux modèles les plus sensibles développés outre-Atlantique. Comme le résume Daniel Privitera, de l'ONG allemande KIRA, « l'Europe ne dispose actuellement d'aucun plan pour garantir cet accès ». La distribution sélective de Mythos préfigure un enjeu qui va s'amplifier : dans un monde où les capacités offensives et défensives en cybersécurité reposent de plus en plus sur des LLM propriétaires, la souveraineté numérique se jouera aussi sur la capacité à accéder aux modèles de frontier, pas seulement à les réguler.

UELes agences de cybersécurité européennes, dont l'ANSSI en France, sont explicitement exclues de Mythos, laissant les infrastructures critiques du continent sans accès à un outil de détection de vulnérabilités que les États-Unis déploient déjà à l'échelle fédérale et bancaire.

SécuritéOpinion
1 source
Les tests Mythos AI du gouvernement britannique distinguent les vraies menaces cyber du battage médiatique
4Ars Technica AI 

Les tests Mythos AI du gouvernement britannique distinguent les vraies menaces cyber du battage médiatique

Le gouvernement britannique, via son AI Security Institute (AISI), a publié une évaluation indépendante du modèle Mythos Preview d'Anthropic, centré sur ses capacités en matière de cybersécurité offensive. Cette publication fait suite à l'annonce d'Anthropic la semaine précédente de restreindre l'accès initial à ce modèle à "un groupe limité de partenaires industriels critiques", le temps de préparer sa sortie publique. L'entreprise avait elle-même qualifié Mythos de modèle "remarquablement capable dans les tâches liées à la sécurité informatique". L'AISI confirme que le modèle dépasse les 85 % de réussite sur les défis Capture the Flag de niveau "Apprenti", une série d'épreuves de cybersécurité progressives utilisées depuis début 2023 pour évaluer les modèles d'IA. Sur les tâches individuelles de cybersécurité, Mythos ne se distingue pas fondamentalement des autres modèles frontières récents. Ce qui le différencie en revanche, c'est sa capacité à enchaîner ces tâches en séquences cohérentes et multi-étapes, ce type d'attaque coordonnée étant précisément ce qui permet d'infiltrer complètement un système réel. Cette nuance est cruciale : un modèle capable de relier reconnaissance, exploitation et persistance au sein d'une même session représente un saut qualitatif pour les attaquants potentiels, mais aussi pour les équipes défensives qui cherchent à automatiser les tests de pénétration. L'AISI mène ces évaluations sur Capture the Flag depuis début 2023, à une époque où GPT-3.5 Turbo peinait à résoudre les tâches de niveau débutant. La progression a été régulière depuis, et Mythos marque une nouvelle étape dans cette courbe. La décision d'Anthropic de limiter l'accès initial témoigne d'une stratégie de déploiement prudente face aux risques de mésusage dans un domaine aussi sensible. La publication des résultats par une institution gouvernementale indépendante apporte une crédibilité publique à ces avertissements, au-delà du discours commercial habituel des laboratoires d'IA.

UELes évaluations indépendantes de l'AISI britannique sur les capacités cyber offensives des LLMs pourraient servir de modèle aux régulateurs européens pour les audits de sécurité imposés par l'AI Act.

SécuritéOpinion
1 source