Aller au contenu principal
AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
OutilsAWS ML Blog6sem

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %.

L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence.

Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

Impact France/UE

Les entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Claude Code lance l’auto mode, pour équilibrer l’autonomie de l’IA et la sécurité
1Blog du Modérateur 

Claude Code lance l’auto mode, pour équilibrer l’autonomie de l’IA et la sécurité

Anthropic a lancé une nouvelle fonctionnalité pour Claude Code appelée « auto mode », permettant aux développeurs de laisser l'agent exécuter des tâches de manière autonome sans validation manuelle à chaque étape. Le système soumet chaque action à un classifieur IA interne avant de l'exécuter, ce qui permet de filtrer automatiquement les opérations risquées ou non souhaitées. Cette approche représente un compromis entre efficacité et sécurité : les développeurs gagnent en productivité en évitant les interruptions constantes, tout en conservant un filet de sécurité automatisé. Le classifieur IA agit comme gardien, évaluant le niveau de risque de chaque action avant qu'elle ne soit appliquée sur le système. L'auto mode s'inscrit dans la tendance croissante des éditeurs d'outils d'IA à proposer des agents plus autonomes, un enjeu majeur alors que ces assistants accèdent de plus en plus à des environnements de production sensibles.

OutilsOutil
1 source
2AI News 

Deloitte : mettre à l'échelle les agents autonomes pour une vraie croissance

Deloitte appelle les grandes entreprises à dépasser le stade des chatbots pour entrer dans l'ère de ce qu'il nomme l'"intelligence autonome". Selon Prakul Sharma, directeur associé et responsable de la pratique IA chez Deloitte Consulting LLP, les organisations traversent une courbe de maturité en trois temps : l'"intelligence assistée", où l'IA aide à interpréter l'information ; l'"intelligence artificielle", où le machine learning augmente les décisions humaines ; puis l'"intelligence autonome", où les systèmes décident et agissent de façon indépendante dans des périmètres définis. Les applications d'IA générative actuelles, chatbots, résumés automatiques, assistants conversationnels, occupent encore le milieu de cette courbe. L'IA agentique en constitue le pont vers l'autonomie complète. La distinction fondamentale, selon Sharma : là où un modèle génératif produit une réponse, un système autonome poursuit un résultat en raisonnant sur un objectif, en mobilisant des outils et des données, en s'adaptant aux conditions changeantes, sans que l'humain pilote chaque étape. Pour produire une valeur économique réelle, ces systèmes doivent s'intégrer directement dans les flux générateurs de revenus ou porteurs de coûts. Deloitte illustre ce principe avec un cas concret dans les achats d'entreprise : un agent IA croise en continu les stocks de la chaîne d'approvisionnement avec les prix fournisseurs en temps réel dans un ERP, autorise automatiquement les bons de commande dans des paramètres financiers prédéfinis, et ne sollicite une validation humaine qu'en cas de déviation. Mais pour que ce scénario tienne, le système doit disposer d'une identité vérifiable dans l'ERP, accéder à des données tarifaires contractuellement opposables, et opérer dans des seuils d'approbation validés par les équipes juridiques et conformité. L'absence de l'un de ces prérequis suffit à invalider toute la démarche. L'enjeu n'est donc pas l'agent lui-même, mais l'architecture de gouvernance qui l'entoure : gestion des identités, points de contrôle humains, garde-fous formalisés. La méthode que Deloitte préconise avant tout déploiement commence par un audit décisionnel rigoureux. Sharma conseille aux dirigeants d'identifier une ou deux chaînes de valeur dont les résultats sont bloqués non par des tâches, mais par des décisions : qui détient la donnée, qui a l'autorité, où les transferts dysfonctionnent, où le jugement humain s'applique. Cet exercice localise les workflows où l'autonomie créera de la valeur économique tangible, tout en révélant les lacunes de données et de gouvernance qui ont fait échouer les pilotes précédents. Une fois ces fondations posées, couche IA et agentique, données, évaluations, identité des agents, boucles humaines, Deloitte les déploie sur une première chaîne de valeur, prouve le modèle, puis le réplique. Dans un contexte où les modèles de fondation des grands fournisseurs sont devenus des commodités quasi interchangeables, c'est désormais sur l'infrastructure amont et la gouvernance que se jouent les différences compétitives.

💬 Ce que Deloitte dit en creux, c'est que les modèles sont devenus des commodités, et que la vraie compétition se joue maintenant sur l'infrastructure : identités agents dans les systèmes, données contractuellement solides, garde-fous validés par le juridique. Sans ça, le pilote échoue, on l'a tous vu ces deux dernières années. Bon, Deloitte a clairement intérêt à vendre de la gouvernance, mais le diagnostic tient.

OutilsOutil
1 source
NVIDIA et ServiceNow s'associent pour développer des agents IA autonomes pour les entreprises
3NVIDIA AI Blog 

NVIDIA et ServiceNow s'associent pour développer des agents IA autonomes pour les entreprises

Lors de la conférence ServiceNow Knowledge 2026, Jensen Huang, fondateur et PDG de NVIDIA, est monté sur scène aux côtés de Bill McDermott, PDG de ServiceNow, pour annoncer l'extension de leur collaboration dans le domaine de l'intelligence artificielle en entreprise. Au coeur de cette annonce figure Project Arc, un agent autonome de bureau conçu pour fonctionner en continu et évoluer de façon autonome, destiné aux travailleurs du savoir comme les développeurs, les équipes IT et les administrateurs systèmes. Contrairement aux agents IA classiques, Project Arc s'intègre nativement à la plateforme ServiceNow via ServiceNow Action Fabric, et s'appuie sur OpenShell, un moteur d'exécution open source développé par NVIDIA permettant de déployer des agents dans des environnements sandbox gouvernés par des politiques de sécurité. L'agent peut accéder aux systèmes de fichiers locaux, aux terminaux et aux applications installées sur un poste de travail, et exécuter des tâches complexes en plusieurs étapes que l'automatisation traditionnelle ne peut pas prendre en charge. Ce partenariat marque un tournant dans la manière dont les grandes entreprises envisagent l'IA. Jusqu'ici cantonnée à la génération de texte ou au raisonnement assisté, l'intelligence artificielle passe désormais à l'action de façon autonome, durable et auditable. Pour les organisations, l'enjeu est considérable : déployer des agents capables d'agir sur de vraies infrastructures sans exposer des données sensibles ni contourner les règles de conformité. Project Arc répond à cette exigence en combinant l'AI Control Tower de ServiceNow, qui assure la gouvernance et la traçabilité de chaque action, avec le runtime sécurisé OpenShell de NVIDIA, qui définit précisément ce qu'un agent peut voir, quels outils il peut utiliser et comment chaque action est isolée du reste du système. L'annonce s'inscrit dans une tendance de fond : après des années d'investissements massifs dans les grands modèles de langage, les acteurs technologiques cherchent à concrétiser l'IA agentique dans des environnements professionnels réels. NVIDIA et ServiceNow misent sur un écosystème ouvert, fondé sur les modèles Nemotron de NVIDIA et des compétences spécialisées développées pour les ServiceNow AI Specialists, pour permettre aux entreprises d'adapter ces systèmes à leurs propres données et processus métier. Les deux sociétés co-développent également NOWAI-Bench, une suite de benchmarks ouverte pour évaluer les performances des agents IA en entreprise, intégrée à la bibliothèque NVIDIA NeMo Gym. L'environnement EnterpriseOps-Gym, l'un des plus exigeants du secteur, fait partie de cet effort pour établir des standards communs dans une course à l'agentique qui mobilise désormais tous les grands acteurs du cloud et de l'infrastructure.

UELes entreprises européennes pourraient déployer Project Arc en s'appuyant sur ses mécanismes de gouvernance et de traçabilité pour répondre aux exigences d'auditabilité imposées par l'AI Act.

OutilsOutil
1 source
Writer lance des agents IA capables d'agir de façon autonome, face à Amazon, Microsoft et Salesforce
4VentureBeat AI 

Writer lance des agents IA capables d'agir de façon autonome, face à Amazon, Microsoft et Salesforce

Writer, la plateforme d'agents IA pour les entreprises soutenue par Salesforce Ventures, Adobe Ventures et Insight Partners, a lancé le 30 avril 2026 un système de déclencheurs événementiels pour sa suite Writer Agent. Ce nouveau mécanisme permet à ses agents IA de surveiller en temps réel des signaux métier dans Gmail, Gong, Google Calendar, Google Drive, Microsoft SharePoint et Slack, puis d'exécuter automatiquement des workflows complexes en plusieurs étapes, sans qu'aucun humain n'ait à initier le processus. Le lancement comprend également un connecteur Adobe Experience Manager, un plugin d'observabilité Datadog et la prise en charge du chiffrement avec clés personnalisées (bring-your-own encryption keys). Selon Doris Jwo, vice-présidente Product Management chez Writer, le principe est simple : dès qu'un événement qualifié survient dans l'un de ces outils, un "playbook" prédéfini se déclenche et orchestre l'ensemble de la séquence de travail, sans intervention humaine. Ce passage du mode réactif au mode proactif représente une rupture structurelle dans la façon dont les entreprises utilisent l'IA. Jusqu'ici, même les plateformes les plus avancées exigeaient qu'un salarié ouvre une interface et formule une requête. Désormais, c'est l'agent qui surveille, détecte et agit. L'exemple concret fourni par Writer illustre bien l'enjeu : lorsqu'un brief créatif atterrit dans un dossier Google Drive dédié, le système déclenche automatiquement une cascade de playbooks qui rassemble la recherche, génère les visuels et prépare les livrables pour validation humaine, comprimant ainsi plusieurs heures de coordination Slack et de passages de relais entre équipes marketing. C'est précisément ce goulot d'étranglement humain que Writer dit avoir identifié comme principal frein à l'adoption à grande échelle de ses workflows automatisés. Writer n'est pas seul sur ce terrain. AWS, Salesforce et Microsoft accélèrent tous sur leurs propres plateformes agentiques, et la bataille pour devenir le système nerveux autonome des grandes entreprises ne fait que commencer. Writer avait introduit ses playbooks en novembre 2025 pour permettre aux équipes métier d'automatiser des tâches récurrentes sans écrire une ligne de code ; les déclencheurs événementiels en sont la prochaine évolution logique, transformant ces workflows de procédures manuelles en processus permanents et autonomes. La question qui reste ouverte, et qui agite l'ensemble de l'industrie, est celle de la gouvernance : jusqu'où les entreprises sont-elles prêtes à déléguer des décisions à des agents qui agissent seuls, en temps réel, sur des données sensibles et des outils critiques ? Les nouveaux contrôles de sécurité annoncés simultanément par Writer semblent être une réponse directe à cette préoccupation.

UELes entreprises européennes envisageant d'adopter ces agents autonomes devront évaluer leur conformité RGPD, notamment pour le traitement automatisé sans intervention humaine de données sensibles issues de Gmail, SharePoint ou Google Drive.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour