
Les agents IA gèrent dossiers médicaux et inspections d'usines : l'IAM en entreprise n'était pas conçu pour eux
Des agents d'intelligence artificielle transcrivent en temps réel les dossiers médicaux dans les salles d'examen, suggèrent des prescriptions et remontent l'historique des patients. Sur les lignes de production industrielles, des systèmes de vision par ordinateur assurent un contrôle qualité à des vitesses inatteignables pour un inspecteur humain. Ces deux cas illustrent une réalité désormais bien documentée : l'IA agentique s'est installée dans l'entreprise, mais elle y reste confinée aux phases pilotes. Lors de la conférence RSAC 2026, Jeetu Patel, président de Cisco, a livré un chiffre éloquent : 85 % des grandes entreprises expérimentent des agents IA, mais seulement 5 % les ont déployés en production. Cet écart de 80 points n'est pas lié aux capacités des modèles ni aux ressources de calcul disponibles, mais à un problème fondamental de gouvernance des identités numériques. Le rapport IBM X-Force Threat Intelligence Index 2026 souligne une hausse de 44 % des attaques exploitant des applications exposées sur internet, alimentée par des contrôles d'authentification insuffisants et des outils de découverte de vulnérabilités assistés par IA.
L'enjeu est clair pour tout responsable de la sécurité : quels agents ont accès aux systèmes sensibles, et qui est responsable quand l'un d'eux agit hors de son périmètre autorisé ? Tant qu'un système se contente d'observer et de recommander, les conséquences d'une faille restent limitées. Mais dès qu'un agent modifie de façon autonome des dossiers patients, reconfigure un réseau ou exécute des transactions financières, le rayon d'impact d'une identité compromise devient bien plus large. L'IANS Research confirme que la plupart des entreprises manquent encore de contrôles d'accès basés sur les rôles suffisamment matures pour gérer leurs propres identités humaines, les agents IA ne font qu'aggraver ce déficit structurel.
Michael Dickman, vice-président senior de Cisco en charge du réseau d'entreprise, propose un cadre articulé autour de quatre conditions. La première est la délégation sécurisée : définir précisément ce qu'un agent est autorisé à faire et maintenir une chaîne de responsabilité humaine claire. La deuxième est la maturité culturelle des organisations, illustrée par la gestion des alertes de sécurité : là où l'on agrégait les signaux pour réduire la charge des analystes, un agent peut désormais traiter chaque alerte individuellement, ce qui transforme en profondeur les workflows et les métiers. La troisième concerne l'économie des tokens, chaque action d'un agent ayant un coût computationnel réel. Dickman plaide pour des architectures hybrides où l'IA agentique gère le raisonnement tandis que des systèmes déterministes classiques prennent en charge les tâches répétitives à fort volume. Enfin, il insiste sur le rôle central du réseau comme couche d'observation privilégiée : contrairement aux autres sources de télémétrie, le réseau enregistre les communications effectives entre systèmes, non des activités inférées. "C'est la différence entre savoir et deviner," résume-t-il. Sans cette visibilité comportementale brute, aucune politique d'accès ne peut être appliquée à la vitesse exigée par des agents autonomes.
Les entreprises européennes déployant des agents IA dans des secteurs à risque élevé (santé, industrie) devront aligner leur gouvernance des identités numériques avec les exigences de l'AI Act pour les systèmes à haut risque.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



