Aller au contenu principal
Implémenter avec Memori une mémoire persistante pour agents LLM multi-utilisateurs et multi-sessions
OutilsMarkTechPost1h

Implémenter avec Memori une mémoire persistante pour agents LLM multi-utilisateurs et multi-sessions

Résumé IASource uniqueImpact UE
Source originale ↗·

Memori s'impose comme une couche d'infrastructure mémoire native pour les agents LLM, permettant aux applications d'intelligence artificielle de conserver et d'isoler le contexte utilisateur à travers plusieurs sessions et identités. Un tutoriel publié cette semaine détaille son implémentation concrète dans un environnement Google Colab, en connectant Memori à des clients OpenAI synchrones et asynchrones via le modèle gpt-4o-mini. La bibliothèque, disponible dès la version 3.3.0, s'installe en quelques lignes aux côtés du SDK OpenAI et de Nest AsyncIO. Le principe central repose sur l'enregistrement des clients LLM auprès de Memori, qui intercepte alors automatiquement chaque appel de complétion pour y injecter ou y stocker des informations contextuelles. L'attribution de la mémoire se fait par paire entity\id et process\id : deux paramètres qui définissent à quel utilisateur et à quel rôle d'agent appartient chaque fragment d'information.

Ce mécanisme résout un problème fondamental des applications LLM actuelles : l'amnésie entre les sessions. Sans infrastructure mémoire, chaque conversation repart de zéro, forçant l'utilisateur à répéter son contexte à chaque interaction. Avec Memori, un assistant personnel se souvient qu'Alice est allergique aux cacahuètes, aime la cuisine italienne et pratique la randonnée, même si la session a été fermée puis rouverte. Plus crucial encore, le système garantit l'isolation des données entre utilisateurs : les informations de Bob, développeur Rust basé à Berlin et végétarien, ne fuient pas dans la mémoire d'Alice, et inversement. Cette séparation multi-tenant est essentielle pour tout service IA destiné à plusieurs clients ou utilisateurs distincts, que ce soit un chatbot de support client, un assistant professionnel ou une application grand public.

Le tutoriel illustre également des cas d'usage plus avancés : réponses en streaming, appels asynchrones et simulation d'un agent de support client multi-tours, autant de scénarios qui testent la robustesse de la couche mémoire dans des conditions proches de la production. Memori propose un niveau gratuit avec limitation de débit, ainsi qu'un accès authentifié via clé API pour les usages intensifs. Cette approche s'inscrit dans une tendance plus large de l'écosystème IA : doter les agents de capacités de persistance et de personnalisation sans que les développeurs aient à construire eux-mêmes des systèmes de stockage et de récupération vectorielle. Des projets comme LangMem, Zep ou MemGPT explorent le même territoire, mais Memori mise sur une intégration transparente via simple enregistrement du client OpenAI, réduisant la friction d'adoption pour les équipes déjà familiarisées avec le SDK standard d'OpenAI.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1MarkTechPost 

Créer une couche de mémoire à long terme universelle pour les agents IA avec Mem0 et OpenAI

Des chercheurs et développeurs s'appuient désormais sur Mem0, une bibliothèque open source compatible avec les modèles OpenAI et la base de données vectorielle ChromaDB, pour construire une couche de mémoire persistante destinée aux agents d'intelligence artificielle. Le principe repose sur une architecture en plusieurs modules : extraction automatique de souvenirs structurés à partir de conversations naturelles, stockage sémantique dans ChromaDB via les embeddings text-embedding-3-small, récupération contextuelle par recherche vectorielle, et intégration directe dans les réponses générées par GPT-4.1-nano. Concrètement, le système segmente les échanges conversationnels en faits durables associés à un identifiant utilisateur, comme les préférences techniques, les projets en cours ou les informations personnelles, puis les rend disponibles lors des interactions futures via une API CRUD complète permettant d'ajouter, modifier, supprimer ou interroger ces souvenirs. Cette approche résout un problème fondamental des agents IA actuels : leur amnésie entre les sessions. Sans mémoire persistante, chaque conversation repart de zéro, obligeant l'utilisateur à reformuler son contexte à chaque échange. Avec ce type d'architecture, un agent peut se souvenir qu'un utilisateur est ingénieur logiciel, qu'il travaille sur un pipeline RAG pour une fintech, et qu'il préfère VS Code en mode sombre, sans que ces informations aient été répétées. Pour les entreprises qui déploient des assistants IA internes, des copilotes de code ou des outils de support client, cela représente un gain de personnalisation et d'efficacité considérable. L'isolation multi-utilisateurs intégrée dans Mem0 garantit par ailleurs que les souvenirs d'un profil ne contaminent pas ceux d'un autre. La mémoire à long terme est l'un des chantiers prioritaires de l'IA générative en 2025-2026, aux côtés du raisonnement et de l'utilisation d'outils. Des acteurs comme OpenAI avec la mémoire de ChatGPT, ou des startups spécialisées telles que Mem0 (anciennement EmbedChain), se positionnent sur ce marché en pleine expansion. L'approche présentée ici est dite "production-ready" : elle exploite ChromaDB en local pour réduire les coûts et la latence, mais reste compatible avec des backends cloud. La tendance de fond est de faire évoluer les agents d'un mode sans état vers une continuité contextuelle, condition nécessaire pour des assistants véritablement utiles sur la durée. Les prochaines étapes probables incluent la gestion de la decay mémorielle (oublier les informations obsolètes) et l'intégration dans des frameworks multi-agents comme LangGraph ou AutoGen.

💬 Le problème de l'amnésie entre sessions, c'est le truc qui rend les agents inutilisables en vrai. Mem0 propose une architecture propre pour ça, avec ChromaDB en local et une isolation multi-utilisateurs qui tient la route, ce qui évite les bricolages maison qu'on voit partout. Bon, "production-ready" ça se vérifie, mais l'approche est solide.

OutilsOutil
1 source
CopilotKit lance une plateforme d'intelligence pour entreprises dotant les applications à base d'agents d'une mémoire persistante entre sessions et appareils
2MarkTechPost 

CopilotKit lance une plateforme d'intelligence pour entreprises dotant les applications à base d'agents d'une mémoire persistante entre sessions et appareils

CopilotKit a annoncé son Enterprise Intelligence Platform, une nouvelle couche d'infrastructure managée qui dote les applications agentiques d'une mémoire persistante entre les sessions, les utilisateurs et les appareils. Jusqu'ici, chaque nouvelle session forçait l'agent à repartir de zéro : aucun souvenir des échanges précédents, des workflows en cours ou des décisions déjà prises. Pour contourner ce problème, les équipes de développement devaient construire manuellement leur propre couche de stockage, en choisissant une base de données, en sérialisant l'état applicatif et en gérant les identifiants de session avant même d'écrire la moindre ligne de logique produit. La plateforme résout ce problème en fournissant une infrastructure clé en main, compatible avec n'importe quel framework agentique. Elle peut être auto-hébergée sur Kubernetes, avec une option cloud managée en développement, et répond aux exigences de sécurité enterprise : conformité SOC 2 Type II, intégration SSO, contrôle d'accès par rôles, déploiements hors ligne air-gapped et souveraineté totale des données via une base de données personnalisée. L'élément central de l'architecture est le concept de "Thread" : un objet de session persistant et structuré qui survit aux déconnexions, aux changements d'appareils et aux relances d'agent. Contrairement à un simple historique de messages texte stocké en base, un Thread capture six dimensions de l'interaction : les composants d'interface générés dynamiquement par l'agent, les étapes humaines dans la boucle (approbations, corrections, décisions guidées), l'état partagé entre le backend agentique et le frontend, les entrées et sorties vocales, les fichiers uploadés ou générés, et l'ensemble des interactions multimodales au sein d'un objet unique. Concrètement, un workflow complexe démarré par un collaborateur peut être repris exactement là où il s'était arrêté par un autre membre de l'équipe sur un appareil différent, sans perte d'état ni de contexte. CopilotKit est déjà connu pour son SDK open-source dédié au frontend des agents IA, ainsi que pour l'AG-UI Protocol, un standard ouvert qui connecte les agents aux interfaces utilisateur. Cette plateforme Enterprise ne remplace pas le SDK existant : elle l'enrichit avec la couche d'infrastructure qui lui manquait. L'enjeu est considérable pour l'industrie, car la persistance de l'état est l'un des principaux freins au déploiement en production d'applications agentiques dans les entreprises. Les cas d'usage visés, comme la rédaction collaborative de documents juridiques ou la gestion de pipelines de données en plusieurs étapes, illustrent un marché qui commence à dépasser les chatbots pour entrer dans la logique de workflows longs et critiques. La disponibilité d'une infrastructure standardisée pourrait significativement accélérer cette transition.

UELa plateforme propose des options de souveraineté des données (base de données personnalisée, déploiement air-gapped sur Kubernetes) susceptibles de faciliter la conformité RGPD pour les équipes de développement européennes qui adoptent des architectures agentiques.

OutilsOutil
1 source
Strands Evals : simuler des utilisateurs réalistes pour évaluer les agents IA multi-tours
3AWS ML Blog 

Strands Evals : simuler des utilisateurs réalistes pour évaluer les agents IA multi-tours

Amazon a publié dans son SDK Strands Evaluations une fonctionnalité appelée ActorSimulator, destinée à automatiser l'évaluation des agents IA dans des conversations multi-tours. Contrairement aux tests à tour unique — où l'on fournit une entrée, on collecte une sortie et on juge le résultat — les interactions réelles s'étendent sur plusieurs échanges : l'utilisateur pose des questions de suivi, change de direction ou exprime sa frustration face à des réponses incomplètes. Un assistant de voyage qui gère correctement "Réserve-moi un vol pour Paris" peut échouer lorsque le même utilisateur enchaîne avec "En fait, peut-on regarder les trains ?" ou "Qu'en est-il des hôtels près de la tour Eiffel ?". L'ActorSimulator permet de générer des utilisateurs simulés avec des personas structurés et des objectifs définis, puis de les laisser converser naturellement avec un agent sur plusieurs tours, à grande échelle. L'enjeu est considérable pour les équipes qui développent des agents conversationnels en production. Conduire manuellement des centaines de conversations multi-tours à chaque modification d'un agent est insoutenable, et les jeux de données statiques d'entrées/sorties ne capturent pas la dynamique réelle : la "bonne" prochaine question de l'utilisateur dépend entièrement de ce que l'agent vient de répondre. Les approches artisanales consistant à demander à un LLM de "jouer l'utilisateur" sans définition structurée du persona produisent des résultats incohérents d'une exécution à l'autre, rendant impossible la détection fiable de régressions. L'ActorSimulator répond à ce problème en combinant le réalisme d'une conversation humaine avec la reproductibilité et l'échelle des tests automatisés. Ce développement s'inscrit dans une tendance plus large de l'industrie à professionnaliser l'évaluation des agents IA, à mesure que ceux-ci quittent les démos pour entrer dans des usages critiques. AWS positionne Strands Evaluations comme une infrastructure d'évaluation systématique, comparable aux simulateurs de vol ou aux moteurs de jeu qui testent des millions de comportements avant déploiement. La difficulté fondamentale réside dans la croissance combinatoire des chemins de conversation : plus les capacités d'un agent s'étoffent, plus le nombre de scénarios possibles explose au-delà de ce que des équipes humaines peuvent explorer. En permettant la simulation structurée de personas avec des objectifs explicites et un suivi de progression, Strands Evals vise à offrir aux équipes d'évaluation un outil comparable à ce que les testeurs de logiciels ont dans d'autres disciplines d'ingénierie, avec des résultats comparables dans le temps.

OutilsOutil
1 source
Construire un assistant de recherche à base d'agents avec Groq, LangGraph, sous-agents et mémoire
4MarkTechPost 

Construire un assistant de recherche à base d'agents avec Groq, LangGraph, sous-agents et mémoire

Un tutoriel publié récemment détaille la construction d'un assistant de recherche agentique fonctionnant sur l'infrastructure d'inférence de Groq, en combinant LangGraph, LangChain et le modèle open source Llama 3.3 70B Versatile de Meta. L'architecture repose sur l'endpoint compatible OpenAI de Groq, disponible gratuitement via console.groq.com, ce qui permet d'utiliser l'interface ChatOpenAI de LangChain sans modifier le code en profondeur, simplement en redirigeant la clé API et l'URL de base. L'agent ainsi construit dispose d'un ensemble d'outils concrets: recherche web via DuckDuckGo, récupération de pages, lecture et écriture de fichiers, exécution de code Python, délégation à des sous-agents spécialisés, et une mémoire persistante entre les sessions. Le tout s'appuie sur des bibliothèques comme BeautifulSoup4 pour le parsing HTML et Pydantic pour la validation des données. Ce qui rend cette approche notable, c'est la combinaison d'une infrastructure gratuite et d'une architecture capable de raisonnement multi-étapes. L'agent ne se contente pas de répondre à une question: il décompose un sujet de recherche en sous-questions, interroge plusieurs sources, croise les informations pour identifier les consensus et les divergences, puis génère des rapports structurés sauvegardés dans un répertoire de sortie. La mémoire à long terme lui permet de réutiliser des connaissances acquises lors d'exécutions précédentes, évitant de recommencer from scratch à chaque session. Pour les développeurs et chercheurs qui cherchent à automatiser des workflows de veille ou d'analyse documentaire, cette architecture offre un point de départ fonctionnel sans coût d'inférence immédiat. Ce tutoriel s'inscrit dans une tendance de fond qui voit LangGraph s'imposer comme framework de référence pour les systèmes agentiques en Python, face à des alternatives comme AutoGen ou CrewAI. Groq, de son côté, mise sur la vitesse d'inférence permise par ses puces LPU propriétaires pour attirer les développeurs avec un tier gratuit généreux, dans l'espoir de les convertir en clients payants à l'échelle. L'utilisation de Llama 3.3 70B, modèle open source de Meta, illustre également la montée en puissance des modèles non propriétaires capables d'exécuter du tool calling fiable, compétence longtemps réservée aux modèles fermés comme GPT-4. La prochaine étape naturelle pour ce type de système serait l'intégration de sources structurées, une mémoire vectorielle plus sophistiquée, ou le déploiement dans des environnements de production avec contrôle des coûts.

OutilsTuto
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour