Aller au contenu principal
Intégration d'Amazon Bedrock AgentCore avec Slack
OutilsAWS ML Blog6sem

Intégration d'Amazon Bedrock AgentCore avec Slack

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon franchit une nouvelle étape dans l'intégration de l'IA en entreprise avec Bedrock AgentCore, désormais connecté directement à Slack. Cette intégration permet aux équipes d'interagir avec des agents IA sans quitter leur espace de travail habituel, éliminant les allers-retours entre applications et les problèmes de réauthentification.

L'enjeu est significatif pour les organisations qui déploient des agents IA au quotidien : jusqu'ici, les développeurs devaient construire manuellement des gestionnaires de webhooks personnalisés pour chaque intégration Slack. AgentCore supprime cette friction en embarquant nativement la mémoire conversationnelle, la gestion des identités et le contrôle d'accès sécurisé aux outils des agents — le tout sans code d'infrastructure supplémentaire.

Techniquement, la solution repose sur trois composants déployés via AWS CDK : une infrastructure d'image conteneurisée (Amazon ECR + AWS CodeBuild sur architecture Graviton ARM64), les composants AgentCore (Runtime, Gateway, Memory), et une couche d'intégration Slack composée d'Amazon API Gateway, AWS Lambda, AWS Secrets Manager et Amazon SQS. Trois fonctions Lambda distinctes gèrent respectivement la vérification de signature des événements Slack, la mise en file d'attente des requêtes, et le traitement des réponses — un découplage conçu pour contourner la limite de délai d'attente imposée par Slack. L'agent s'appuie sur le Strands Agents SDK et communique avec ses outils via le protocole standardisé MCP (Model Context Protocol).

La couche d'intégration Slack est présentée comme entièrement réutilisable : l'exemple s'appuie sur un agent météo, mais l'architecture peut être adaptée à n'importe quel cas d'usage métier sans modifier la logique de communication avec Slack — une approche modulaire qui devrait accélérer les déploiements d'agents IA dans les environnements collaboratifs d'entreprise.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Créer un agent FinOps avec Amazon Bedrock AgentCore
1AWS ML Blog 

Créer un agent FinOps avec Amazon Bedrock AgentCore

Amazon a dévoilé une solution clé en main pour construire un agent FinOps basé sur Amazon Bedrock AgentCore, permettant aux équipes financières de gérer les coûts AWS à travers plusieurs comptes via une interface conversationnelle unique. L'architecture repose sur Claude Sonnet 4.5 d'Anthropic, le Strands Agent SDK et le protocole MCP (Model Context Protocol), déployée via AWS CDK. L'agent consolide les données de trois services AWS — Cost Explorer, Budgets et Compute Optimizer — et propose plus de 20 outils spécialisés couvrant l'intégralité du spectre de la gestion des coûts cloud. La mémoire conversationnelle conserve jusqu'à 30 jours de contexte, permettant des questions de suivi sans répéter les informations préalables. Concrètement, cette solution élimine la nécessité pour les équipes finance et DevOps de naviguer manuellement entre plusieurs consoles AWS pour obtenir une vue consolidée des dépenses. Un responsable peut simplement demander "Quels sont mes principaux postes de dépenses ce mois-ci ?" et obtenir une réponse immédiate, sans requêtes SQL ni exports manuels. L'authentification repose sur Amazon Cognito (gestion des utilisateurs et flux OAuth 2.0 machine-à-machine), tandis qu'AWS Amplify héberge l'interface web. L'accès en langage naturel démocratise la visibilité sur les coûts cloud à l'ensemble de l'organisation, y compris aux profils non techniques — un enjeu majeur dans les entreprises où la facture AWS est souvent opaque pour les décideurs métier. Le FinOps — la pratique de gouvernance financière du cloud — est devenu un domaine à part entière alors que les dépenses cloud des entreprises ont explosé ces cinq dernières années, rendant le suivi des coûts multi-comptes complexe et chronophage. Amazon Bedrock AgentCore, lancé récemment par AWS, est la réponse d'Amazon à la vague d'agents IA d'entreprise : une plateforme d'exécution managée pour déployer des agents LLM avec mémoire, outils et identité gérés nativement. Cette solution illustre parfaitement la stratégie d'AWS de transformer ses propres services (Cost Explorer, Compute Optimizer) en sources de données accessibles via des agents IA, réduisant la friction d'adoption. La concurrence s'intensifie sur ce segment : Microsoft Copilot pour Azure Cost Management et Google Cloud Carbon Footprint poursuivent des ambitions similaires. La prochaine étape logique sera l'automatisation des recommandations d'optimisation, passant d'un agent qui répond à des questions à un agent qui agit directement sur l'infrastructure pour réduire les coûts.

UELes entreprises françaises et européennes utilisant AWS peuvent simplifier leur gestion de coûts cloud multi-comptes via cet agent, sans impact réglementaire ou institutionnel spécifique.

OutilsOutil
1 source
Des agents d'intégration des employés par IA avec Amazon Quick
2AWS ML Blog 

Des agents d'intégration des employés par IA avec Amazon Quick

Amazon a lancé Quick, un service d'agents IA entièrement géré et sans code, conçu pour automatiser l'onboarding des nouveaux employés en entreprise. Concrètement, Quick permet aux équipes RH de créer des assistants conversationnels capables de répondre aux questions des nouvelles recrues sur les politiques internes, les avantages sociaux ou les procédures administratives, de suivre la complétion des documents de conformité, et de traiter automatiquement les tickets courants, comme une demande d'équipement IT via ServiceNow ou l'envoi d'un message de bienvenue sur Slack. Le service s'intègre aux outils existants de l'entreprise : SharePoint, OneDrive, Confluence, Amazon S3, et les outils de gestion de projet. Il repose sur trois composants clés : des bases de connaissances indexées depuis ces sources multiples, des connecteurs d'actions permettant à l'agent d'agir directement dans les systèmes tiers, et des espaces collaboratifs qui regroupent fichiers, tableaux de bord et bases de connaissances pour une équipe donnée. L'enjeu est significatif pour les grandes organisations : les entreprises perdent un temps considérable par nouvelle recrue pendant la période d'intégration, les employés n'atteignant souvent qu'une fraction de leur productivité potentielle durant le premier mois. Les équipes RH, elles, s'épuisent à répondre aux mêmes questions répétitives, à basculer entre wikis, emails, outils de ticketing et plateformes de messagerie pour coordonner chaque étape. Avec Quick, un agent unifié centralise toutes ces interactions : il présente la checklist d'onboarding à jour, répond avec un langage validé par l'entreprise, ouvre des demandes dans les outils métier, et oriente le nouvel arrivant vers l'étape suivante, le tout sans intervention manuelle d'un chargé RH. Ce lancement s'inscrit dans la stratégie plus large d'Amazon Web Services d'imposer ses services managés dans les workflows d'entreprise, face à des concurrents comme Microsoft Copilot ou ServiceNow Now Assist qui occupent déjà ce terrain. L'approche sans code de Quick vise explicitement les équipes RH non techniques, qui peuvent configurer leurs agents via une interface visuelle plutôt que du développement sur mesure. Deux modes coexistent : un assistant système généraliste disponible par défaut, et des agents personnalisés adaptés aux processus spécifiques de chaque organisation. La question qui se pose désormais est celle de l'adoption réelle dans des environnements enterprise souvent fragmentés, où les intégrations avec des dizaines d'outils legacy restent le principal frein, et où la gouvernance des données RH sensibles transitant par un service cloud tiers soulèvera inévitablement des questions de conformité.

UELes entreprises européennes devront évaluer la conformité RGPD avant de confier des données RH sensibles à ce service cloud américain.

OutilsOutil
1 source
3AWS ML Blog 

Commandes omnicanales avec Amazon Bedrock AgentCore et Amazon Nova 2 Sonic

Amazon a présenté une architecture complète pour construire des systèmes de commande vocale omnicanaux en s'appuyant sur deux de ses services cloud : Amazon Bedrock AgentCore, une plateforme dédiée au déploiement d'agents IA en production, et Amazon Nova 2 Sonic, un modèle de fondation speech-to-speech disponible via Amazon Bedrock. La solution permet à une application de traiter des commandes vocales en temps réel sur plusieurs points de contact simultanément, application mobile, site web et interface vocale, tout en maintenant le contexte conversationnel entre les échanges. L'infrastructure s'appuie sur AWS CDK pour le déploiement, le protocole MCP (Model Context Protocol) pour connecter l'agent IA aux services métier, et une série de services managés : Amazon Cognito pour l'authentification OAuth 2.0, API Gateway pour exposer les endpoints REST, AWS Lambda pour la logique métier, DynamoDB pour le stockage des profils et commandes, et AWS Location Services pour les recommandations géolocalisées de points de retrait. L'intérêt principal de cette architecture réside dans sa capacité à isoler chaque composant pour les faire évoluer indépendamment. AgentCore Runtime exécute chaque session utilisateur dans une microVM isolée, ce qui garantit qu'un pic de charge sur une session n'affecte pas les autres, un problème classique des systèmes vocaux en production. Le MCP standardise la communication entre l'agent et les services backend, ce qui permet de modifier ou d'étendre la logique métier sans réécrire le code d'intégration. Pour les équipes qui construisent des expériences de commande vocale à grande échelle, restauration rapide, retail, logistique, cette séparation claire entre la couche IA, le frontend et le backend réduit significativement la complexité opérationnelle et les risques de régression lors des mises à jour. La publication de cette solution s'inscrit dans une compétition intense autour des agents IA en production. Google, Microsoft et des acteurs comme Anthropic proposent leurs propres infrastructures agentiques, mais AWS mise sur l'intégration native avec son écosystème de services cloud existants comme différenciateur clé. Nova 2 Sonic, le modèle speech-to-speech au coeur du système, représente l'entrée d'Amazon dans les interfaces vocales conversationnelles en temps réel, un segment où OpenAI s'est imposé avec GPT-4o Voice. En publiant ce tutoriel complet avec une architecture de restaurant fictive comme backend d'exemple, Amazon cherche à accélérer l'adoption par les développeurs et à établir AgentCore comme standard de fait pour le déploiement d'agents IA sur AWS. Les prochaines étapes logiques incluront probablement l'extension à d'autres modalités et l'intégration avec des systèmes de caisse et d'inventaire existants.

OutilsOutil
1 source
4AWS ML Blog 

Amazon Bedrock AgentCore Runtime introduit des capacités MCP client avec état

Amazon a introduit des capacités client MCP (Model Context Protocol) avec état dans son service AgentCore Runtime sur Amazon Bedrock, marquant une évolution majeure pour les développeurs d'agents IA. Jusqu'à présent, les serveurs MCP hébergés sur cette plateforme fonctionnaient en mode sans état : chaque requête HTTP était traitée de façon indépendante, sans mémoire entre les appels. Le nouveau mode avec état, activé via un simple paramètre stateless_http=False, provision une microVM dédiée par session utilisateur, persistant jusqu'à 8 heures ou 15 minutes d'inactivité. Cette architecture permet désormais trois capacités clés du protocole MCP : l'élicitation (demander une saisie utilisateur en cours d'exécution), le sampling (solliciter du contenu généré par un LLM côté client), et les notifications de progression (streamer des mises à jour en temps réel). La continuité de session est assurée via un en-tête Mcp-Session-Id, échangé lors de l'initialisation et inclus dans toutes les requêtes suivantes. Ces nouvelles capacités transforment fondamentalement la nature des workflows agents. Là où les implémentations sans état forçaient les agents à s'exécuter de bout en bout sans interruption, les agents peuvent désormais mener de véritables conversations bidirectionnelles avec leurs clients : s'arrêter pour demander une clarification à l'utilisateur au milieu d'un appel d'outil, déléguer dynamiquement la génération de contenu au LLM présent côté client, ou signaler l'avancement d'opérations longues en temps réel. Pour les équipes qui construisent des assistants IA complexes, des pipelines de traitement de documents ou des agents d'automatisation nécessitant validation humaine intermédiaire, c'est un changement de paradigme concret qui élimine des contournements architecturaux souvent coûteux à maintenir. Le Model Context Protocol, standard ouvert définissant comment les applications LLM se connectent à des outils et sources de données externes, gagne rapidement en adoption depuis son lancement par Anthropic fin 2024. Amazon avait déjà intégré l'hébergement de serveurs MCP sans état dans AgentCore Runtime dans une version précédente ; cette mise à jour complète l'implémentation bidirectionnelle du protocole. L'isolation entre sessions via des microVMs dédiées garantit la sécurité et l'indépendance des contextes, chaque session bénéficiant de CPU, mémoire et système de fichiers séparés. Si une session expire ou que le serveur redémarre, les clients reçoivent une erreur 404 et doivent réinitialiser la connexion. Cette approche positionne AWS comme un acteur central dans l'infrastructure d'agents IA d'entreprise, en rivalité directe avec les offres similaires de Microsoft Azure et Google Cloud dans la course à standardiser les architectures agentiques.

UELes équipes européennes développant des agents IA sur des plateformes cloud peuvent désormais implémenter des workflows agentiques bidirectionnels natifs sans contournements architecturaux coûteux.

OutilsActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour