
Implémenter avec Memori une mémoire persistante pour agents LLM multi-utilisateurs et multi-sessions
Memori s'impose comme une couche d'infrastructure mémoire native pour les agents LLM, permettant aux applications d'intelligence artificielle de conserver et d'isoler le contexte utilisateur à travers plusieurs sessions et identités. Un tutoriel publié cette semaine détaille son implémentation concrète dans un environnement Google Colab, en connectant Memori à des clients OpenAI synchrones et asynchrones via le modèle gpt-4o-mini. La bibliothèque, disponible dès la version 3.3.0, s'installe en quelques lignes aux côtés du SDK OpenAI et de Nest AsyncIO. Le principe central repose sur l'enregistrement des clients LLM auprès de Memori, qui intercepte alors automatiquement chaque appel de complétion pour y injecter ou y stocker des informations contextuelles. L'attribution de la mémoire se fait par paire entity\id et process\id : deux paramètres qui définissent à quel utilisateur et à quel rôle d'agent appartient chaque fragment d'information.
Ce mécanisme résout un problème fondamental des applications LLM actuelles : l'amnésie entre les sessions. Sans infrastructure mémoire, chaque conversation repart de zéro, forçant l'utilisateur à répéter son contexte à chaque interaction. Avec Memori, un assistant personnel se souvient qu'Alice est allergique aux cacahuètes, aime la cuisine italienne et pratique la randonnée, même si la session a été fermée puis rouverte. Plus crucial encore, le système garantit l'isolation des données entre utilisateurs : les informations de Bob, développeur Rust basé à Berlin et végétarien, ne fuient pas dans la mémoire d'Alice, et inversement. Cette séparation multi-tenant est essentielle pour tout service IA destiné à plusieurs clients ou utilisateurs distincts, que ce soit un chatbot de support client, un assistant professionnel ou une application grand public.
Le tutoriel illustre également des cas d'usage plus avancés : réponses en streaming, appels asynchrones et simulation d'un agent de support client multi-tours, autant de scénarios qui testent la robustesse de la couche mémoire dans des conditions proches de la production. Memori propose un niveau gratuit avec limitation de débit, ainsi qu'un accès authentifié via clé API pour les usages intensifs. Cette approche s'inscrit dans une tendance plus large de l'écosystème IA : doter les agents de capacités de persistance et de personnalisation sans que les développeurs aient à construire eux-mêmes des systèmes de stockage et de récupération vectorielle. Des projets comme LangMem, Zep ou MemGPT explorent le même territoire, mais Memori mise sur une intégration transparente via simple enregistrement du client OpenAI, réduisant la friction d'adoption pour les équipes déjà familiarisées avec le SDK standard d'OpenAI.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.



