Les credentials des agents IA coexistent avec du code non fiable : deux architectures délimitent le périmètre de risque
À la conférence RSAC 2026, quatre grandes entreprises de cybersécurité ont tiré la même sonnette d'alarme sans s'être concertées. Microsoft, Cisco, CrowdStrike et Splunk ont chacun, depuis leur propre scène, identifié la gouvernance des agents IA comme le principal angle mort de la sécurité d'entreprise. Les chiffres donnent raison à cette convergence : 79 % des organisations déploient déjà des agents IA selon PwC, mais seulement 14,4 % disposent d'une approbation de sécurité complète pour l'ensemble de leur flotte, d'après le rapport Gravitee de février 2026 portant sur 919 organisations. Seules 26 % ont adopté une politique de gouvernance IA, selon une enquête de la Cloud Security Alliance présentée à la conférence. En parallèle, une campagne d'attaque baptisée ClawHavoc, nommée par Koi Security le 1er février 2026, a ciblé le framework agentique OpenClaw via sa place de marché : Antiy CERT a confirmé 1 184 compétences malveillantes liées à 12 comptes éditeurs, et les recherches ToxicSkills de Snyk révèlent que 36,8 % des 3 984 compétences scannées présentent des failles de sécurité, dont 13,4 % jugées critiques. Enfin, le 8 avril 2026, Anthropic a lancé en bêta publique son architecture Managed Agents, qui sépare chaque agent en trois composants distincts.
Le problème structurel que ces alertes pointent est précis : dans la majorité des déploiements actuels, le modèle de raisonnement, les outils, le code exécuté et les identifiants, tokens OAuth, clés API, accès Git, cohabitent dans un même processus monolithique. Une seule injection de prompt suffit à exposer l'intégralité de l'environnement. Le rayon d'explosion n'est pas limité à l'agent : c'est le conteneur entier et tous les services connectés qui deviennent accessibles. Fait aggravant, 43 % des organisations utilisent des comptes de service partagés pour leurs agents, 52 % s'appuient sur des identités de charge de travail génériques, et 68 % sont incapables de distinguer l'activité d'un agent de celle d'un humain dans leurs journaux de logs. Le temps moyen de compromission est tombé à 29 minutes ; le plus rapide observé cette année : 27 secondes.
Ce vide de responsabilité n'est pas nouveau, mais l'accélération des déploiements l'a rendu critique. Les équipes sécurité renvoyaient le sujet aux développeurs, les développeurs aux équipes sécurité. La campagne ClawHavoc illustre comment des acteurs malveillants exploitent déjà ce flou en ciblant les places de marché de compétences agentiques, vecteur d'attaque de type supply chain. Face à cette réalité, deux architectures concurrentes ont émergé à RSAC pour répondre différemment à la même question : où stopper le rayon d'explosion ? L'approche d'Anthropic, qui dissocie cerveau, mains et identifiants dans des composants séparés, s'oppose à d'autres modèles centrés sur la vérification continue de chaque action. Le débat sur la norme qui s'imposera dans l'industrie ne fait que commencer.
Les entreprises européennes sont directement exposées : avec seulement 14,4 % des organisations disposant d'une approbation sécurité complète pour leurs agents IA, leurs infrastructures restent vulnérables aux attaques de type supply chain ciblant les places de marché agentiques.



