Aller au contenu principal
CrowdStrike, Cisco et Palo Alto Networks ont présenté des outils SOC à base d'agents à la RSAC 2026 — et tous trois ont raté le même angle mort
AutreVentureBeat AI2h

CrowdStrike, Cisco et Palo Alto Networks ont présenté des outils SOC à base d'agents à la RSAC 2026 — et tous trois ont raté le même angle mort

1 source couvre ce sujet·Source originale ↗·
CrowdStrike, Cisco et Palo Alto Networks ont présenté des outils SOC à base d'agents à la RSAC 2026 — et tous trois ont raté le même angle mort
▶ Voir sur YouTube

À la conférence RSA 2026, les grands noms de la cybersécurité ont présenté leurs outils de SOC agentiques — ces systèmes d'IA autonomes capables de détecter et répondre aux menaces sans intervention humaine. George Kurtz, PDG de CrowdStrike, a ouvert le bal avec un chiffre qui donne le vertige : le temps de propagation record d'un attaquant est désormais de 27 secondes, contre une moyenne de 29 minutes (en baisse par rapport à 48 minutes en 2024). Dans ce contexte, CrowdStrike détecte plus de 1 800 applications d'IA distinctes sur les terminaux d'entreprise, représentant 160 millions d'instances uniques — chacune générant des événements de sécurité que les SIEM actuels, conçus pour des workflows humains, peinent à absorber. Cisco a de son côté annoncé six agents spécialisés pour Splunk Enterprise Security — Detection Builder, Triage, Guided Response, SOP, Malware Threat Reversing et Automation Builder — dont la plupart restent en version alpha jusqu'en juin 2026. Palo Alto Networks a suivi avec sa propre architecture agentique, tandis que Cisco déploie également DefenseClaw, un framework qui analyse les compétences OpenClaw et les serveurs MCP avant déploiement.

Le problème central que ces trois acteurs n'ont pas résolu : dans la majorité des configurations de journalisation par défaut, l'activité initiée par un agent IA est strictement indiscernable de celle d'un humain dans les logs de sécurité. Elia Zaitsev, CTO de CrowdStrike, l'a formulé clairement : « On ne peut pas distinguer si un agent pilote le navigateur de Louis ou si c'est Louis lui-même. » Remonter l'arbre de processus permet théoriquement de faire la différence, mais cela exige un niveau de visibilité sur les endpoints que peu d'organisations possèdent. Résultat : un agent compromis, exécutant un appel API légitime avec des identifiants valides, ne déclenche aucune alerte. Cette lacune n'est pas théorique — Kurtz a décrit lors de son keynote l'attaque ClawHavoc, première attaque majeure sur la chaîne d'approvisionnement d'un écosystème d'agents IA, ciblant le registre public ClawHub d'OpenClaw. Un audit de Koi Security en février a recensé 341 compétences malveillantes sur 2 857 ; une analyse ultérieure d'Antiy CERT a identifié 1 184 paquets compromis historiquement. Les charges malveillantes incluaient des backdoors, des reverse shells et des collecteurs d'identifiants — certains s'effaçant de la mémoire après installation pour rester latents.

Cette tension entre adoption rapide et maturité sécuritaire traverse toute l'industrie. Cisco révèle que 85 % de ses clients enterprise ont des projets pilotes d'agents en cours, mais seulement 5 % les ont mis en production — un écart de 80 points qui traduit une méfiance concrète : les équipes sécurité ne savent pas quels agents tournent, ce qu'ils sont autorisés à faire, ni qui est responsable en cas d'incident. Etay Maor, VP Threat Intelligence chez Cato Networks et habitué de la RSA depuis seize ans, résume le paradoxe : « La complexité sécuritaire est la menace numéro un, et on fonce droit dedans avec l'IA. » Kurtz a été plus direct encore : « Les créateurs d'IA de frontier ne sécuriseront pas eux-mêmes leurs systèmes. Ils construisent — ils ne sécurisent pas. » L'enjeu pour les mois à venir sera de savoir si les outils annoncés à RSAC 2026 combleront vraiment ce fossé, ou si l'accélération de l'adoption agentique en entreprise creusera une surface d'attaque que les SOC ne pourront plus absorber.

Impact France/UE

Les entreprises européennes déployant des agents IA sont exposées à la même lacune structurelle : un agent compromis exécutant des appels API légitimes avec des identifiants valides ne déclenche aucune alerte dans la majorité des configurations SOC actuelles, rendant toute politique de gouvernance agentique inopérante sans refonte du logging.

À lire aussi

1TechCrunch AI 

Anthropic is having a month

Autre
1 source
2The Information AI 

Des applications de surveillance cherchent à empêcher les agents IA de dériver

Face aux dérives des agents IA autonomes — qui ont déjà causé des incidents de sécurité et des pannes chez Meta et Amazon — de grandes entreprises comme ServiceNow, ainsi que plusieurs startups, développent une nouvelle catégorie de logiciels baptisés "agents IA gardiens". Ces outils de surveillance prennent la forme d'applications cloud conçues pour détecter et stopper les comportements erratiques ou dangereux d'autres agents IA avant qu'ils ne causent des dommages. Concrètement, ces agents gardiens se connectent aux agents IA déjà déployés en entreprise — qu'ils soient construits avec OpenClaw, Claude Code ou Salesforce Agentforce — via des interfaces de programmation standard ou des serveurs MCP (Model Context Protocol). Une fois en place, ils surveillent en temps réel les actions des agents supervisés et peuvent intervenir si ceux-ci s'écartent de leur mission. La mise en place reste cependant fastidieuse : chaque connexion doit être configurée manuellement, ce qui freine l'adoption à grande échelle. L'émergence de ces outils reflète une tension croissante dans l'industrie : les entreprises déploient des agents IA de plus en plus autonomes pour automatiser des tâches complexes, mais peinent à en contrôler les effets de bord. Les incidents chez des acteurs aussi matures que Meta et Amazon illustrent que même les équipes les plus aguerries ne sont pas à l'abri. La question du contrôle et de la gouvernance des agents IA autonomes s'impose désormais comme un enjeu stratégique central pour 2026, ouvrant un marché potentiellement lucratif pour les acteurs qui sauront proposer des solutions fiables et simples à déployer.

UELes entreprises européennes déployant des agents IA autonomes sont directement concernées par ces enjeux de gouvernance, d'autant que l'AI Act impose des exigences de contrôle et de traçabilité sur les systèmes IA à haut risque.

AutreOpinion
1 source
Le code source complet du CLI Claude Code a fuité via un fichier map exposé
3Ars Technica AI 

Le code source complet du CLI Claude Code a fuité via un fichier map exposé

Anthropic a accidentellement exposé l'intégralité du code source de son outil Claude Code CLI en publiant ce matin la version 2.1.88 du package npm. Le package contenait un fichier source map, une erreur interne grave qui a permis à quiconque de reconstituer près de 2 000 fichiers TypeScript représentant plus de 512 000 lignes de code. Le chercheur en sécurité Chaofan Shou a été le premier à le signaler publiquement sur X en partageant une archive des fichiers. Le code a ensuite été déposé dans un dépôt GitHub public et a été forké des dizaines de milliers de fois en quelques heures. Cette fuite est un revers significatif pour Anthropic : le code source de Claude Code constitue un blueprint détaillé de l'architecture et du fonctionnement interne de l'outil, offrant aux concurrents — OpenAI, Google, et les dizaines de startups qui développent des agents de codage — une visibilité inédite sur les choix d'ingénierie d'Anthropic. Pour les utilisateurs, la fuite ne compromet pas directement la sécurité de leurs données, mais elle soulève des questions sur les pratiques de publication et de contrôle qualité de l'entreprise. Le code étant désormais massivement distribué, il est pratiquement impossible de le retirer de la circulation. Claude Code est l'un des produits à la plus forte croissance d'Anthropic ces derniers mois, devenu un outil central dans le segment des assistants de développement, en concurrence directe avec GitHub Copilot et Cursor. Cette exposition survient à un moment particulièrement délicat, alors qu'Anthropic cherche à s'imposer comme un acteur de confiance dans l'industrie. La mésaventure rappelle l'incident similaire survenu chez Samsung en 2023, où des ingénieurs avaient involontairement exposé du code propriétaire via ChatGPT — sauf qu'ici, c'est l'entreprise elle-même qui a commis l'erreur. La suite dépendra en partie de la réaction juridique d'Anthropic, même si la diffusion massive rend toute suppression illusoire.

UELa fuite expose l'architecture interne de l'outil le plus utilisé par les développeurs IA en Europe, soulevant des questions sur les pratiques de sécurité des éditeurs de logiciels IA et sur la protection du secret industriel dans le secteur.

AutreOpinion
1 source
Anthropic publie accidentellement le code source de Claude Code en accès public
4The Decoder 

Anthropic publie accidentellement le code source de Claude Code en accès public

Anthropic a accidentellement rendu public une partie du code source de Claude Code, son outil d'assistance à la programmation propulsé par l'IA. L'incident, révélé par The Decoder, s'est produit lorsque des fichiers normalement destinés à rester internes ont été accessibles publiquement, permettant à quiconque de les consulter sans autorisation particulière. Il s'agit de la deuxième mésaventure de ce type en peu de temps pour l'entreprise, qui avait déjà vu fuiter des billets de blog internes concernant son futur modèle baptisé Mythos. Cette exposition involontaire du code source est embarrassante pour Anthropic à plusieurs titres. Claude Code est un produit commercial actif, et la divulgation de son implémentation interne peut permettre à des concurrents d'analyser ses choix techniques, ses architectures et potentiellement ses vulnérabilités. Pour les utilisateurs professionnels et entreprises qui s'appuient sur cet outil, la question de la sécurité et de la robustesse des pratiques internes d'Anthropic devient légitime. Cet incident survient dans un contexte de compétition intense entre les grands acteurs de l'IA — OpenAI, Google DeepMind, Meta et Anthropic — où la confidentialité des développements internes représente un avantage stratégique majeur. Anthropic, fondée en 2021 par d'anciens dirigeants d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, se positionne sur le créneau de l'IA sûre et responsable. Ces fuites répétées fragilisent cette image de sérieux opérationnel, au moment même où la société cherche à s'imposer dans le segment entreprise face à des concurrents mieux établis.

AutreActu
1 source