L'autorisation des agents est défaillante, et la transmission de l'authentification aggrave le problème
Anthony Grieco, vice-président senior et directeur de la sécurité de Cisco, l'a affirmé sans détour lors de la conférence RSAC 2026 : les incidents impliquant des agents IA non autorisés touchent régulièrement les clients de l'entreprise. Le problème qu'il décrit suit un schéma précis et récurrent, l'authentification réussit, l'identité de l'agent est confirmée, et pourtant l'agent accède à des données auxquelles il n'avait pas le droit de toucher, ou exécute des actions que personne n'avait autorisées à ce niveau de granularité. Ce n'est pas un problème d'identité, c'est un problème d'autorisation. Le rapport "State of AI Security 2026" de Cisco illustre l'ampleur du défi : 83 % des organisations prévoient de déployer des capacités agentiques, mais seulement 29 % se sentent prêtes à les sécuriser. À RSAC 2026, cinq éditeurs ont présenté des cadres d'identité pour agents, dont Cisco avec son Duo IAM et ses contrôles MCP gateway. Aucun ne comble l'ensemble des lacunes identifiées.
Le problème central est structurel. Comme l'a formulé Grieco : "Cet agent est un agent financier, mais même en tant qu'agent financier, il ne devrait pas accéder à toutes les données financières, seulement aux notes de frais d'une période précise." Kayne McGladrey, membre senior de l'IEEE, a confirmé que les organisations reproduisent par défaut les profils de droits des utilisateurs humains pour leurs agents, ce qui génère une inflation des permissions dès le premier jour. Carter Rees, VP de l'IA chez Reputation, a identifié la cause structurelle : le plan d'autorisation plat d'un LLM ne respecte pas les permissions par utilisateur. L'agent n'a pas besoin d'escalader ses privilèges, il les possède déjà. À cela s'ajoute un problème de visibilité : selon Elia Zaitsev, directeur technique de CrowdStrike, dans la plupart des configurations de journalisation par défaut, l'activité d'un agent est indiscernable de celle d'un humain, rendant toute détection d'anomalie très difficile.
Ce constat dépasse largement les observations d'un seul éditeur. Trois organismes de standardisation indépendants ont convergé vers le même diagnostic début 2026. Le NIST a publié en février un document appelant explicitement à des projets pilotes sur l'application des standards d'identité aux agents autonomes. L'OWASP a publié en décembre 2025 son "Top 10 for Agentic Applications", identifiant l'abus d'outils par sur-provisionnement de droits et la délégation non sécurisée comme des risques de premier rang. La Cloud Security Alliance a également lancé des travaux sur le sujet. Avec des entreprises qui envisagent jusqu'à 500 agents par employé selon Grieco, la question de l'autorisation granulaire, savoir précisément ce qu'un agent peut faire, sur quelles données, à quel moment, est en passe de devenir l'un des défis sécuritaires les plus urgents de l'entreprise moderne.
Les organisations européennes déployant des agents IA sont exposées aux mêmes défaillances d'autorisation, et les exigences de l'AI Act en matière de gestion des risques pour les systèmes à haut risque renforceront la pression réglementaire sur ce problème structurel.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




