Aller au contenu principal
OpenClaw compte 500 000 instances déployées sans aucun mécanisme de désactivation centralisé
AutreVentureBeat AI1sem

OpenClaw compte 500 000 instances déployées sans aucun mécanisme de désactivation centralisé

1 source couvre ce sujet·Source originale ↗·

Un agent IA personnel nommé OpenClaw s'est retrouvé au cœur d'une faille de sécurité majeure exposée lors de la conférence RSAC 2026. Le 22 février, un acteur malveillant utilisant le pseudonyme « fluffyduck » a mis en vente sur BreachForums un accès root au poste d'un PDG britannique pour 25 000 dollars en cryptomonnaie. La marchandise principale n'était pas l'accès machine lui-même, mais l'intégralité de l'instance OpenClaw du dirigeant : l'historique complet de ses conversations avec l'IA, la base de données de production de son entreprise, des tokens Telegram, des clés API Trading 212, ainsi que des informations personnelles sur sa famille et ses finances. Le chercheur Vitaly Simonovich de Cato CTRL a documenté l'annonce dès le 25 février. L'instance OpenClaw stockait tout en fichiers Markdown en clair sous ~/.openclaw/workspace/, sans chiffrement. L'attaquant n'avait rien à exfiltrer — le PDG avait lui-même tout centralisé. Lors d'un contrôle en direct sur Censys effectué à RSAC 2026, Etay Maor, VP Threat Intelligence chez Cato Networks, a observé une croissance explosive : 6 300 instances la première semaine de lancement, 230 000 la semaine suivante, puis près de 500 000 au moment de la vérification — quasiment un doublement en sept jours. Trois CVE à haute sévérité définissent la surface d'attaque : CVE-2026-24763 (CVSS 8.8, injection de commande via Docker), CVE-2026-25157 (CVSS 7.7, injection OS) et CVE-2026-25253 (CVSS 8.8, exfiltration de tokens). Plus de 30 000 instances présentent des risques de sécurité détectés, dont 15 200 exploitables via des RCE connues selon SecurityScorecard.

L'absence totale de plan de gestion d'entreprise constitue le problème structurel central. Lorsque l'équipe de sécurité du PDG a découvert la compromission, il n'existait aucun kill switch natif, aucune console d'administration et aucun moyen d'inventorier les instances actives dans l'organisation. Les trois CVE ont été patchées, mais sans mécanisme centralisé de mise à jour ni de désactivation à distance, chaque administrateur doit intervenir manuellement — et la plupart ne l'ont pas fait. Quatre éditeurs ont présenté des réponses à RSAC 2026 sans pour autant fournir le contrôle le plus basique : un kill switch d'entreprise natif.

Ce cas illustre une tension fondamentale dans l'adoption rapide des agents IA. OpenClaw s'exécute localement avec accès direct au système de fichiers, aux connexions réseau, aux sessions navigateur et aux applications installées — une autonomie qu'aucune entreprise n'accorderait à un employé humain sans contrôle. La marketplace ClawHub a par ailleurs distribué ClawHavoc, un skill malveillant parmi 341 identifiés comme dangereux, devenu le cas d'école principal du classement OWASP Agentic Skills Top 10. Le PDG de CrowdStrike, George Kurtz, l'a cité dans son keynote RSAC 2026 comme la première attaque majeure sur la chaîne d'approvisionnement d'un écosystème d'agents IA. Les capteurs Falcon de CrowdStrike détectent déjà plus de 1 800 applications IA distinctes sur les endpoints clients, générant 160 millions d'instances uniques — un volume qui rend l'absence de gouvernance centralisée d'autant plus critique à mesure que ces outils s'installent dans les environnements professionnels.

Impact France/UE

Les entreprises européennes déployant des agents IA autonomes doivent auditer d'urgence leurs instances et appliquer manuellement les correctifs des trois CVE critiques, aucun mécanisme centralisé de mise à jour n'étant disponible.

💬 Le point de vue du dev

500 000 instances sans kill switch, c'est pas un problème de sécurité, c'est un problème d'architecture. Le PDG avait tout centralisé lui-même dans des fichiers Markdown en clair, l'attaquant n'avait presque rien à faire. Ce qui me choque le plus, c'est que quatre éditeurs ont présenté leurs "solutions" à RSAC sans que personne soit capable de fournir le truc le plus basique : couper à distance.

À lire aussi

Anthropic restreint l'accès à Mythos, son nouveau modèle d'IA en cybersécurité
1Ars Technica AI 

Anthropic restreint l'accès à Mythos, son nouveau modèle d'IA en cybersécurité

Anthropic a officiellement lancé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, en le réservant à un cercle restreint d'organisations triées sur le volet. Parmi les premiers accès figurent des géants technologiques comme Amazon, Apple et Microsoft, ainsi que des acteurs de la sécurité informatique tels que Broadcom, Cisco et CrowdStrike. La start-up de San Francisco a annoncé ce mardi être également en discussions avec le gouvernement américain concernant un éventuel déploiement dans le secteur public. Ce lancement contrôlé signale qu'Anthropic joue désormais dans la cour des outils offensifs et défensifs de cybersécurité, un marché stratégique et sensible. En limitant l'accès à des organisations vérifiées, la société cherche à éviter que le modèle ne soit détourné à des fins malveillantes, une préoccupation centrale pour les IA capables d'analyser des vulnérabilités ou d'automatiser des attaques. Le partenariat avec des entreprises comme CrowdStrike suggère une orientation vers la détection de menaces et la réponse aux incidents. Ce lancement intervient dans un contexte embarrassant pour Anthropic : des descriptions détaillées du modèle Mythos et d'autres documents internes avaient été découverts le mois dernier dans un cache de données publiquement accessible, révélant l'existence du projet avant toute annonce officielle. Cette fuite avait forcé la main de l'entreprise. Plus largement, la course aux modèles spécialisés en cybersécurité s'intensifie, avec Microsoft, Google et des startups comme Protect AI qui développent également leurs propres solutions, faisant de ce segment l'un des plus disputés de l'IA appliquée.

AutreActu
1 source
Une IA soutenue par Apple et Google révèle des milliers de failles dans des logiciels très utilisés
2Siècle Digital 

Une IA soutenue par Apple et Google révèle des milliers de failles dans des logiciels très utilisés

Project Glasswing, une initiative de cybersécurité soutenue par douze géants technologiques dont Apple, Google, Microsoft, AWS, Cisco, NVIDIA et JPMorgan Chase, a été lancée pour détecter automatiquement des failles dans les logiciels les plus critiques au monde. Le projet s'appuie sur un système d'intelligence artificielle baptisé Mythos, capable d'analyser en profondeur des bases de code massives pour y repérer des vulnérabilités jusqu'alors inconnues. Plus de quarante organisations gérant des infrastructures logicielles mondiales participent également à l'initiative, coordonnée sous l'égide de la Linux Foundation. Aucun accès public, abonnement commercial ou lancement grand public n'est prévu : le projet fonctionne exclusivement en consortium fermé. L'enjeu est considérable. Les logiciels open source constituent la colonne vertébrale de l'infrastructure numérique mondiale, des serveurs bancaires aux systèmes industriels en passant par les plateformes cloud. Des failles non détectées dans ces composants peuvent exposer des millions d'organisations simultanément, comme l'avait illustré la vulnérabilité Log4Shell en 2021. En automatisant la détection à grande échelle, Mythos promet de réduire drastiquement la fenêtre d'exposition entre l'introduction d'une faille et sa correction, un délai qui se compte aujourd'hui souvent en mois, voire en années. Ce projet s'inscrit dans une tendance de fond : après des années à construire des IA génératives grand public, les grandes entreprises technologiques réorientent une partie de leurs investissements vers des usages à fort impact systémique. La sécurité logicielle, longtemps sous-financée malgré sa criticité, attire désormais des coalitions inédites. Project Glasswing illustre aussi une réponse collective aux pressions réglementaires croissantes en Europe et aux États-Unis, qui imposent aux éditeurs une responsabilité accrue sur la sécurité de leurs chaînes d'approvisionnement logicielles.

UELes pressions réglementaires européennes sur la sécurité des chaînes d'approvisionnement logicielles (Cyber Resilience Act) sont citées comme moteur explicite du projet, qui vise à réduire les risques systémiques pesant sur les infrastructures numériques utilisées en Europe.

AutreOpinion
1 source
Mistral dévoile 22 mesures dédiées à l’IA pour réveiller l’Europe avant qu’il ne soit trop tard
3Siècle Digital 

Mistral dévoile 22 mesures dédiées à l’IA pour réveiller l’Europe avant qu’il ne soit trop tard

Mistral AI a publié un manifeste détaillant 22 propositions concrètes pour permettre à l'Europe de rattraper son retard dans la course mondiale à l'intelligence artificielle. Arthur Mensch, cofondateur et PDG de la startup française, tire la sonnette d'alarme : selon lui, les citoyens, les entreprises et les gouvernements européens sont aujourd'hui « dépendants d'une domination étrangère », celle des géants américains et des acteurs chinois qui contrôlent les modèles, les infrastructures et les données sur lesquels repose l'IA mondiale. Ces 22 mesures ciblent trois leviers stratégiques : l'attraction et la rétention des talents, l'orientation des marchés publics vers des solutions souveraines, et l'accès aux données. L'enjeu est considérable pour l'industrie européenne. Si les administrations et entreprises du continent continuent de s'appuyer exclusivement sur des modèles américains ou chinois, elles transfèrent de facto leurs données sensibles et leur souveraineté technologique à des acteurs étrangers soumis à des législations incompatibles avec le droit européen. Orienter les marchés publics vers des fournisseurs comme Mistral permettrait de financer un écosystème local tout en réduisant cette dépendance structurelle. Mistral, fondée en 2023 et valorisée à plus de six milliards de dollars, s'impose comme le principal champion européen face à OpenAI et Google. Cette prise de position intervient dans un contexte de débat intense sur le AI Act européen et les appels répétés à construire une « IA souveraine ». En publiant ces mesures, Arthur Mensch cherche à peser sur l'agenda politique européen avant que l'écart technologique ne devienne définitivement impossible à combler.

UEMistral, champion français de l'IA valorisé à plus de 6 milliards de dollars, propose 22 mesures pour réduire la dépendance européenne aux modèles étrangers, avec des implications directes sur les marchés publics français et la souveraineté numérique de l'UE.

AutreReglementation
1 source
Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains
4Next INpact 

Anthropic dévoile Mythos, son modèle d’IA chasseur de failles… réservé à certains

Anthropic a officialisé l'existence de Claude Mythos, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, via le lancement du projet Glasswing. L'annonce est intervenue après plusieurs semaines de rumeurs et la fuite d'un billet de blog qui avait déjà éventé la surprise. Présenté comme plus capable qu'Opus, le modèle phare de la start-up californienne jusqu'alors, Mythos a été conçu pour détecter et exploiter des failles dans des logiciels avec une précision inédite. Son accès est strictement limité à un cercle de partenaires triés sur le volet : AWS, Apple, Google, Microsoft, NVIDIA, Cisco, Broadcom et la fondation Linux font partie des entreprises qui bénéficient d'un aperçu du modèle dans le cadre de Glasswing, un nom inspiré des papillons aux ailes transparentes. Anthropic reconnaît elle-même que Mythos est potentiellement trop dangereux pour une diffusion publique, ses capacités offensives en cybersécurité pouvant constituer une menace réelle si elles tombaient entre de mauvaises mains. En le réservant à de grands acteurs institutionnels et technologiques capables de l'encadrer, l'entreprise entend le transformer en outil défensif : sécuriser des logiciels critiques plutôt qu'en compromettre. Pour les entreprises partenaires, l'enjeu est considérable, car un modèle capable de scanner automatiquement des bases de code à la recherche de vulnérabilités inconnues représente un avantage stratégique majeur face aux attaques croissantes ciblant les infrastructures numériques mondiales. Cette annonce s'inscrit dans un contexte tendu pour Anthropic, frappée simultanément par une autre fuite involontaire concernant Claude Code, attribuée là encore à une "erreur humaine". La coïncidence de ces deux événements nourrit les interrogations sur la gestion interne de l'information chez la startup, fondée en 2021 par d'anciens d'OpenAI. La stratégie de communication autour de Mythos, d'abord entretenue dans le flou avant d'être officialisée sous une forme très contrôlée, intervient alors qu'Anthropic se prépare à une introduction en bourse et cherche à affirmer sa position face à OpenAI dans une compétition de plus en plus féroce. Limiter volontairement l'accès à son modèle le plus puissant, tout en le présentant comme potentiellement dangereux, est une manière de soigner à la fois son image de responsabilité et son aura technologique auprès des investisseurs et du grand public.

UEL'émergence d'un modèle IA dédié à la détection de vulnérabilités logicielles accentue la pression concurrentielle sur les acteurs européens de la cybersécurité et soulève des questions sur l'accès des infrastructures critiques européennes à ces capacités défensives de pointe.

AutreOpinion
1 source