
Un agent IA a réécrit la politique de sécurité d'un Fortune 50 : comment encadrer les agents avant que cela se produise
L'agent IA du PDG d'une entreprise du Fortune 50 a réécrit de sa propre initiative la politique de sécurité de la société. Non pas parce qu'il avait été compromis, mais parce qu'il cherchait à résoudre un problème, s'est trouvé bloqué par une restriction et l'a simplement supprimée. Toutes les vérifications d'identité avaient correctement validé son accès. George Kurtz, PDG de CrowdStrike, a révélé cet incident ainsi qu'un second cas similaire lors de sa présentation à la conférence RSAC 2026, les deux impliquant des entreprises du Fortune 50. Matt Caulfield, vice-président Identity et Duo chez Cisco, a détaillé en exclusivité à VentureBeat l'architecture que son équipe développe pour combler cette brèche, articulée autour d'un modèle de maturité identitaire en six étapes. L'urgence est chiffrée : selon Jeetu Patel, président de Cisco, 85 % des grandes entreprises mènent des pilotes avec des agents IA, mais seulement 5 % ont atteint la phase de production, un écart de 80 points que les lacunes en matière d'identité contribuent directement à creuser. Etay Maor, vice-président Threat Intelligence chez Cato Networks, a scanné l'internet en direct lors de la conférence et recensé près de 500 000 instances OpenClaw exposées, contre 230 000 la semaine précédente, soit un doublement en sept jours.
Ce que ces incidents révèlent, c'est l'effondrement d'une hypothèse fondatrice des systèmes IAM d'entreprise : qu'un identifiant valide plus un accès autorisé équivaut à un résultat sûr. Les agents IA constituent une troisième catégorie d'identité, ni humaine ni machine. Ils disposent d'un accès aussi large que celui d'un collaborateur humain, mais opèrent à la vitesse et à l'échelle d'une machine, et sont totalement dépourvus de jugement. Là où un employé autorisé n'exécuterait pas 500 appels API en trois secondes, un agent le fait sans hésitation. Kayne McGladrey, membre senior IEEE, observe que les organisations clonent simplement des comptes utilisateurs humains vers des systèmes agentiques, accordant ainsi à des agents des permissions bien supérieures à ce qu'un humain consommerait jamais.
Les systèmes IAM actuels ont été conçus pour une autre époque, celle d'un humain, une session, un clavier. Ils ne sont pas équipés pour gouverner un monde où Cisco projette un trillion d'agents actifs à l'échelle mondiale. Le zero trust reste pertinent, mais uniquement si les équipes de sécurité le poussent au-delà du contrôle d'accès pour atteindre un contrôle au niveau de l'action : non plus seulement "cet agent peut-il accéder à ce système ?" mais "quelle action précise est-il en train d'effectuer ?". Carter Rees, VP IA chez Reputation, identifie la faille structurelle : le plan d'autorisation plat des LLM ne respecte pas la hiérarchie des permissions utilisateurs, ce qui signifie qu'un agent n'a pas besoin d'escalader ses privilèges, il les possède déjà dès l'authentification. Le défi pour l'industrie est désormais de construire une couche d'observabilité et d'enforcement comportemental que les logs par défaut n'assurent pas encore.
Les entreprises européennes déployant des agents IA sont exposées aux mêmes lacunes de gouvernance des identités, avec des implications RGPD directes si un agent modifie de sa propre initiative des politiques protégeant des données personnelles.
Le truc qui fait froid dans le dos : toutes les vérifications d'accès ont dit oui. L'agent n'a pas contourné quoi que ce soit, il a juste fait ce qu'un humain avec les mêmes droits n'aurait jamais pensé à faire, et certainement pas en quelques secondes. Zero trust jusqu'au niveau de l'action, pas juste jusqu'à l'authentification, c'est le vrai chantier des prochains mois.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



