Aller au contenu principal
Organiser la mémoire des agents à grande échelle : patterns de conception par namespace dans AgentCore Memory
OutilsAWS ML Blog1h

Organiser la mémoire des agents à grande échelle : patterns de conception par namespace dans AgentCore Memory

Résumé IASource uniqueImpact UE
Source originale ↗·

Amazon a publié un guide technique détaillé sur la conception de namespaces dans AgentCore Memory, le système de mémoire à long terme intégré à Amazon Bedrock. La fonctionnalité, présentée dans un billet de blog officiel d'AWS, permet aux développeurs d'organiser les souvenirs de leurs agents IA sous forme de chemins hiérarchiques, similaires à des arborescences de fichiers. Concrètement, les préférences d'un utilisateur identifié comme customer-123 seront stockées sous /actor/customer-123/preferences/, tandis que les résumés de ses sessions individuelles seront rangés sous /actor/customer-123/session/session-789/summary/. Ces chemins sont générés automatiquement à partir de trois variables prédéfinies : {actorId} pour l'identifiant de l'utilisateur, {sessionId} pour la session en cours, et {memoryStrategyId} pour le type de stratégie mémoire utilisé. Le système prend en charge plusieurs stratégies superposées, notamment la mémoire sémantique pour les faits durables sur un utilisateur, et la mémoire de résumé pour les synthèses de sessions passées.

L'enjeu est concret : sans organisation rigoureuse, les agents IA récupèrent du contexte non pertinent lors de leurs requêtes, ce qui dégrade la qualité des réponses et peut créer des failles de sécurité, notamment en exposant les souvenirs d'un utilisateur à un autre. Le système de namespaces résout ces deux problèmes à la fois. D'un côté, la structure hiérarchique permet une récupération à granularité variable : on peut interroger la mémoire d'une session précise, l'ensemble des préférences d'un utilisateur à travers toutes ses sessions, ou encore des données communes à tous les utilisateurs d'un même agent. De l'autre, AWS intègre des contrôles d'accès IAM natifs qui permettent de délimiter précisément qui peut lire ou écrire dans quelle portion de la mémoire, sans dupliquer le stockage physique. Les namespaces sont des partitions logiques au sein d'une même ressource mémoire, une approche que les équipes habituées aux clés de partition DynamoDB ou aux préfixes S3 reconnaîtront immédiatement.

Ce guide s'inscrit dans une dynamique plus large : l'essor des agents IA en production crée une demande croissante pour des infrastructures mémoire robustes et sécurisées. Amazon Bedrock, qui concurrence directement les offres d'OpenAI, Google et Microsoft Azure dans l'espace des plateformes d'agents d'entreprise, cherche à se différencier par des primitives de bas niveau bien pensées. AgentCore Memory, présenté comme une brique fondamentale pour les agents à longue durée de vie, cible les équipes qui construisent des assistants client, des copilotes métier ou des agents autonomes nécessitant une continuité de contexte entre les sessions. La prochaine étape annoncée par AWS porte sur les patterns de récupération multi-niveaux et les stratégies d'isolation entre agents dans des architectures multi-tenants.

Impact France/UE

Amazon Bedrock étant déployé dans des régions AWS européennes, ces patterns de conception sont directement exploitables par les équipes françaises et européennes qui construisent des agents IA sur cette plateforme.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle
1VentureBeat AI 

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle

La startup Kilo a annoncé le lancement de KiloClaw for Organizations et KiloClaw Chat, une suite d'outils destinée à encadrer l'usage des agents IA autonomes au sein des grandes entreprises. Cette annonce intervient un mois après la mise en disponibilité générale de son produit individuel OpenClaw, qui a déjà séduit plus de 25 000 utilisateurs actifs. Le benchmark propriétaire de Kilo, PinchBench, a quant à lui enregistré plus de 250 000 interactions et a été cité publiquement par Jensen Huang, PDG de Nvidia, lors de sa keynote à la conférence GTC 2026 à San Jose. Co-fondée par Scott Breitenother et Emilie Schario, la société propose un environnement de développement IA multi-modèles hébergé dans le cloud, conçu pour être portable et accessible. Le problème que KiloClaw for Organizations cherche à résoudre est celui du « shadow AI » — ou BYOAI (Bring Your Own AI) : des développeurs et travailleurs du savoir qui déploient des agents IA autonomes sur des infrastructures personnelles, hors du contrôle de leur employeur, pour gérer agendas, dépôts de code ou flux de travail professionnels. Des directeurs IA de sous-traitants gouvernementaux ont confié à Kilo avoir découvert leurs équipes faisant tourner des agents OpenClaw sur des serveurs VPS non répertoriés. « Nous ne voyons rien : pas de journaux d'audit, pas de gestion des identifiants, aucune idée de quelles données touchent quelle API », aurait déclaré l'un d'eux. Face à cette opacité, certaines organisations ont répondu par des interdictions totales des agents autonomes, faute de stratégie claire. Le nouveau produit permet à une entreprise d'acheter un package organisationnel et d'en distribuer l'accès à chaque membre de l'équipe, dans un environnement géré et auditable. Ce lancement s'inscrit dans une dynamique sectorielle plus large. Des acteurs majeurs comme Nvidia (NemoClaw), Cisco (DefenseClaw), Palo Alto Networks et CrowdStrike ont tous annoncé des déclinaisons entreprise d'OpenClaw, avec des mécanismes de gouvernance et de sécurité. Pourtant, selon Anand Kashyap, PDG de la société de sécurité des données Fortanix, l'adoption en entreprise reste faible : les organisations exigent un contrôle IT centralisé, un comportement prévisible et une conformité stricte des données — trois paramètres que les plateformes agentiques autonomes mettent à rude épreuve. Kashyap souligne que les solutions de périmètre traditionnelles ne réduisent pas la surface d'attaque fondamentale. À terme, le marché devrait converger vers des plateformes agentiques avec des agents pré-packagés, des contrôles centralisés et des accès aux données intégrés directement dans les LLM — des technologies comme le Confidential Computing étant appelées à jouer un rôle clé dans cette transition.

UELes entreprises européennes sont confrontées aux mêmes enjeux de shadow AI, aggravés par les obligations de traçabilité et de contrôle imposées par l'AI Act pour les systèmes d'IA à risque déployés en contexte professionnel.

OutilsOutil
1 source
2MarkTechPost 

Créer une couche de mémoire à long terme universelle pour les agents IA avec Mem0 et OpenAI

Des chercheurs et développeurs s'appuient désormais sur Mem0, une bibliothèque open source compatible avec les modèles OpenAI et la base de données vectorielle ChromaDB, pour construire une couche de mémoire persistante destinée aux agents d'intelligence artificielle. Le principe repose sur une architecture en plusieurs modules : extraction automatique de souvenirs structurés à partir de conversations naturelles, stockage sémantique dans ChromaDB via les embeddings text-embedding-3-small, récupération contextuelle par recherche vectorielle, et intégration directe dans les réponses générées par GPT-4.1-nano. Concrètement, le système segmente les échanges conversationnels en faits durables associés à un identifiant utilisateur, comme les préférences techniques, les projets en cours ou les informations personnelles, puis les rend disponibles lors des interactions futures via une API CRUD complète permettant d'ajouter, modifier, supprimer ou interroger ces souvenirs. Cette approche résout un problème fondamental des agents IA actuels : leur amnésie entre les sessions. Sans mémoire persistante, chaque conversation repart de zéro, obligeant l'utilisateur à reformuler son contexte à chaque échange. Avec ce type d'architecture, un agent peut se souvenir qu'un utilisateur est ingénieur logiciel, qu'il travaille sur un pipeline RAG pour une fintech, et qu'il préfère VS Code en mode sombre, sans que ces informations aient été répétées. Pour les entreprises qui déploient des assistants IA internes, des copilotes de code ou des outils de support client, cela représente un gain de personnalisation et d'efficacité considérable. L'isolation multi-utilisateurs intégrée dans Mem0 garantit par ailleurs que les souvenirs d'un profil ne contaminent pas ceux d'un autre. La mémoire à long terme est l'un des chantiers prioritaires de l'IA générative en 2025-2026, aux côtés du raisonnement et de l'utilisation d'outils. Des acteurs comme OpenAI avec la mémoire de ChatGPT, ou des startups spécialisées telles que Mem0 (anciennement EmbedChain), se positionnent sur ce marché en pleine expansion. L'approche présentée ici est dite "production-ready" : elle exploite ChromaDB en local pour réduire les coûts et la latence, mais reste compatible avec des backends cloud. La tendance de fond est de faire évoluer les agents d'un mode sans état vers une continuité contextuelle, condition nécessaire pour des assistants véritablement utiles sur la durée. Les prochaines étapes probables incluent la gestion de la decay mémorielle (oublier les informations obsolètes) et l'intégration dans des frameworks multi-agents comme LangGraph ou AutoGen.

💬 Le problème de l'amnésie entre sessions, c'est le truc qui rend les agents inutilisables en vrai. Mem0 propose une architecture propre pour ça, avec ChromaDB en local et une isolation multi-utilisateurs qui tient la route, ce qui évite les bricolages maison qu'on voit partout. Bon, "production-ready" ça se vérifie, mais l'approche est solide.

OutilsOutil
1 source
3NVIDIA AI Blog 

Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité

Adobe, NVIDIA et WPP ont annoncé un renforcement de leur collaboration stratégique pour déployer des agents IA au cœur des opérations marketing d'entreprise, une annonce faite à l'occasion de l'Adobe Summit, dont la keynote du deuxième jour est prévue le 21 avril 2026. Le dispositif repose sur trois briques complémentaires : les plateformes créatives d'Adobe, dont le nouvel Adobe CX Enterprise Coworker, le runtime sécurisé NVIDIA OpenShell combiné aux modèles ouverts Nemotron et au NVIDIA Agent Toolkit, et l'expertise mondiale de WPP en conseil marketing. Concrètement, ces agents sont capables de générer, adapter et versionner des visuels, du texte et des offres commerciales à travers des millions de combinaisons de produits, d'audiences et de canaux, en quelques minutes plutôt qu'en plusieurs mois. L'enjeu central de cette collaboration est le contrôle. Quand des agents IA orchestrent des flux de travail en plusieurs étapes, accèdent à des données sensibles et déclenchent des actions automatisées à grande échelle, la question de la gouvernance devient critique pour les grandes entreprises. NVIDIA OpenShell répond à ce problème en faisant tourner chaque agent dans un environnement conteneurisé, isolé et auditable, avec une gestion de politiques vérifiable qui définit précisément ce que l'agent est autorisé à faire, et pas seulement quelles règles sont théoriquement en place. Adobe Firefly Foundry, accéléré par l'infrastructure NVIDIA, permet par ailleurs aux organisations d'entraîner des modèles personnalisés sur leurs propres actifs pour produire du contenu commercialement sûr, aligné sur l'identité de marque. Cette annonce s'inscrit dans une course industrielle à l'automatisation du marketing de masse personnalisé, portée par la demande explosive d'expériences client sur mesure à travers tous les canaux numériques. Adobe complète son offre avec une solution de jumeaux numériques 3D désormais disponible en général, construite sur les bibliothèques NVIDIA Omniverse et le standard OpenUSD : ces répliques virtuelles de produits servent d'identités persistantes que les agents exploitent pour automatiser la production de contenus haute fidélité dans différents formats et marchés. La convergence entre Adobe, spécialiste du creative cloud et de l'expérience client, NVIDIA, fournisseur d'infrastructure d'accélération et de couches logicielles agentiques, et WPP, premier groupe mondial de communication, dessine un modèle où les grandes marques pourraient déléguer l'essentiel de leur production créative à des systèmes autonomes, tout en conservant un contrôle granulaire sur chaque action déclenchée.

UEWPP, premier groupe mondial de communication avec une forte présence en Europe, est au cœur de ce déploiement, ce qui pourrait accélérer l'adoption d'agents IA dans les agences marketing européennes travaillant sur des campagnes multicanal à grande échelle.

OutilsOutil
1 source
Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents
4AWS ML Blog 

Amazon Nova Act accélère la livraison logicielle grâce à l'automatisation des tests par agents

Amazon a lancé Nova Act, un service AWS conçu pour automatiser les tests d'assurance qualité (QA) dans les pipelines de livraison logicielle. Contrairement aux frameworks traditionnels qui s'appuient sur des sélecteurs CSS, des identifiants d'éléments ou des références structurelles pour naviguer dans les interfaces, Nova Act utilise un modèle de compréhension visuelle et le langage naturel — exactement comme le ferait un utilisateur humain. La solution s'accompagne de QA Studio, une interface de référence incluant un frontend web, une API et une CLI, construite sur une infrastructure serverless AWS. Les équipes peuvent y créer des suites de tests via un assistant de parcours utilisateur, déclencher des exécutions à la demande, les planifier ou les intégrer directement dans leurs pipelines CI/CD. L'ensemble s'appuie sur Amazon Bedrock AgentCore Browser pour la prévisualisation en direct et AWS Secrets Manager pour la saisie sécurisée des données sensibles. L'enjeu est considérable pour les équipes produit et engineering. Dans les organisations actuelles, les critères d'acceptance sont définis par les product managers en langage métier, implémentés par les développeurs, puis retranscrits en code d'automatisation — souvent par ces mêmes développeurs. Ce fossé entre ceux qui comprennent les besoins utilisateurs et ceux qui maintiennent les tests crée une dette technique permanente : chaque refactoring d'interface ou ajustement de layout casse des dizaines de tests, même quand les fonctionnalités restent intactes. Nova Act supprime ce goulot d'étranglement en permettant à n'importe quel membre de l'équipe — y compris des non-développeurs — de rédiger et maintenir des tests en langage naturel. Quand un designer déplace un bouton ou qu'un développeur restructure un composant React, les tests s'adaptent automatiquement sans intervention manuelle. Cette annonce s'inscrit dans une course plus large des grands fournisseurs cloud à proposer des agents capables d'interagir avec des interfaces graphiques. OpenAI avec Operator, Anthropic avec Computer Use, et désormais AWS avec Nova Act ciblent tous le même marché : remplacer les scripts d'automatisation fragiles par des agents visuels autonomes. Pour AWS, l'intégration native dans l'écosystème Bedrock et les services managés représente un avantage compétitif face aux solutions standalone. Le marché du test logiciel automatisé pèse plusieurs milliards de dollars et souffre d'un taux d'échec élevé des projets d'automatisation traditionnels — souvent abandonnés après quelques mois faute de ressources pour maintenir les scripts. Si Nova Act tient ses promesses de résilience aux changements UI, il pourrait redistribuer significativement les cartes dans ce secteur et accélérer l'adoption de l'approche "shift-left" où les tests sont écrits dès la définition des exigences.

UELes équipes engineering européennes utilisant AWS peuvent intégrer Nova Act dans leurs pipelines CI/CD, mais aucun impact réglementaire ou institutionnel direct sur la France ou l'UE.

OutilsOutil
1 source