Aller au contenu principal
Découvrez OpenViking : une base de données contextuelle open-source qui apporte la mémoire et la récupération basées sur le système de fichiers aux systèmes d'agents intelligents comme OpenClaw
OutilsMarkTechPost6sem

Découvrez OpenViking : une base de données contextuelle open-source qui apporte la mémoire et la récupération basées sur le système de fichiers aux systèmes d'agents intelligents comme OpenClaw

Résumé IASource uniqueImpact UE
Source originale ↗·

OpenViking, un projet open-source publié par Volcengine (la branche cloud de ByteDance), propose une approche radicalement différente de la gestion du contexte pour les systèmes d'agents IA. Plutôt que de stocker les informations sous forme de fragments textuels plats, OpenViking organise la mémoire des agents selon un paradigme de système de fichiers, accessible via le protocole viking://. Une rupture conceptuelle qui s'attaque directement aux limites des pipelines RAG (Retrieval-Augmented Generation) classiques.

L'enjeu est majeur pour les développeurs d'agents autonomes : plus une tâche dure longtemps, plus le contexte s'accumule, et plus les systèmes traditionnels peinent à retrouver la bonne information au bon moment. OpenViking répond à cinq problèmes récurrents identifiés dans le développement d'agents — contexte fragmenté, volume croissant lors de tâches longues, mauvaise qualité de récupération, faible observabilité et mémoire limitée à l'historique de conversation. En structurant le contexte en répertoires hiérarchiques (resources/, user/, agent/), le système permet à un agent de naviguer avec des opérations de type ls ou find, plutôt que de se fier uniquement à la similarité sémantique.

Le cœur technique repose sur trois mécanismes distincts. Le Directory Recursive Retrieval effectue une première recherche vectorielle pour identifier le répertoire le plus pertinent, puis affine récursivement dans les sous-répertoires — préservant à la fois la pertinence locale et la structure globale. Le Tiered Context Loading décompose automatiquement chaque contenu en trois niveaux : L0 (résumé en une phrase), L1 (vue d'ensemble pour la planification) et L2 (contenu complet), réduisant ainsi le coût en tokens en ne chargeant le détail qu'en cas de nécessité. Enfin, la Visualized Retrieval Trajectory enregistre le chemin de navigation suivi lors de chaque récupération, offrant aux développeurs une visibilité concrète sur les erreurs de routage de contexte — souvent responsables des mauvaises réponses, indépendamment des capacités du modèle sous-jacent.

OpenViking intègre également un système de mémoire de session avec boucle d'auto-itération, permettant à l'agent de consolider et réviser ses souvenirs au fil du temps, au-delà du simple log de conversation. Porté par Volcengine, ce projet positionne ByteDance comme un acteur sérieux dans l'infrastructure des agents IA, un domaine où des solutions comme LangChain, LlamaIndex ou Mem0 dominent actuellement. La nature open-source du projet pourrait accélérer son adoption dans les pipelines d'agents complexes qui souffrent des limites structurelles du RAG conventionnel.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte
1MarkTechPost 

Chroma lance Context-1 : un modèle de recherche à base d'agents de 20 milliards de paramètres pour la récupération multi-saut et la gestion du contexte

Chroma, l'entreprise derrière la base de données vectorielle open source du même nom, a lancé Context-1, un modèle de recherche agentique de 20 milliards de paramètres conçu pour résoudre l'un des problèmes les plus tenaces des systèmes RAG (Retrieval-Augmented Generation) modernes. Dérivé de l'architecture Mixture of Experts gpt-oss-20B et affiné par apprentissage supervisé combiné à du renforcement via CISPO, ce modèle ne joue pas le rôle d'un moteur de raisonnement généraliste : il agit comme un sous-agent de recherche ultra-spécialisé. Concrètement, face à une question complexe nécessitant plusieurs étapes de raisonnement, Context-1 décompose la requête en sous-questions ciblées, exécute des appels d'outils en parallèle — 2,56 appels en moyenne par tour — et parcourt itérativement un corpus documentaire via des outils comme searchcorpus (hybride BM25 + recherche dense), grepcorpus et readdocument, avant de transmettre les passages pertinents à un modèle frontier pour la réponse finale. L'innovation la plus significative de Context-1 est ce que Chroma appelle le "Self-Editing Context" : le modèle ne se contente pas de chercher, il gère activement sa propre fenêtre de contexte. Au fil de la recherche, les documents s'accumulent — beaucoup s'avèrent redondants ou hors sujet. Plutôt que de se noyer dans ce bruit, Context-1 a été entraîné avec une précision de pruning de 0,94 : il exécute proactivement une commande prunechunks pour éliminer les passages inutiles en cours de recherche. Ce mécanisme lui permet de maintenir une fenêtre de contexte de 32 000 tokens propre et efficace, là où les modèles généralistes "s'étranglent" sur des chaînes de raisonnement longues. Le découplage entre la logique de recherche — traditionnellement gérée par le développeur — et la génération de réponse représente un changement architectural majeur pour les équipes qui construisent des pipelines RAG en production. Pour entraîner et évaluer ce type de modèle, Chroma a également publié en open source son outil de génération de données synthétiques, context-1-data-gen. Ce pipeline produit des tâches multi-hop dans quatre domaines — recherche web, dépôts SEC (10-K, 20-F), brevets USPTO et corpus d'emails (Enron, fichiers Epstein) — selon un processus structuré en quatre étapes : Explorer, Vérifier, Distraire, Indexer. L'astuce centrale est l'injection de "distracteurs thématiques", des documents apparemment pertinents mais logiquement inutiles, qui forcent le modèle à raisonner plutôt qu'à faire du simple matching de mots-clés. Ce faisant, Chroma s'attaque à un angle mort bien connu des benchmarks statiques, et positionne Context-1 comme compétitif face à GPT-5 sur les tâches de recherche complexes — tout en étant nettement moins coûteux à faire tourner pour des volumes industriels.

OutilsOpinion
1 source
2MarkTechPost 

Créer une couche de mémoire à long terme universelle pour les agents IA avec Mem0 et OpenAI

Des chercheurs et développeurs s'appuient désormais sur Mem0, une bibliothèque open source compatible avec les modèles OpenAI et la base de données vectorielle ChromaDB, pour construire une couche de mémoire persistante destinée aux agents d'intelligence artificielle. Le principe repose sur une architecture en plusieurs modules : extraction automatique de souvenirs structurés à partir de conversations naturelles, stockage sémantique dans ChromaDB via les embeddings text-embedding-3-small, récupération contextuelle par recherche vectorielle, et intégration directe dans les réponses générées par GPT-4.1-nano. Concrètement, le système segmente les échanges conversationnels en faits durables associés à un identifiant utilisateur, comme les préférences techniques, les projets en cours ou les informations personnelles, puis les rend disponibles lors des interactions futures via une API CRUD complète permettant d'ajouter, modifier, supprimer ou interroger ces souvenirs. Cette approche résout un problème fondamental des agents IA actuels : leur amnésie entre les sessions. Sans mémoire persistante, chaque conversation repart de zéro, obligeant l'utilisateur à reformuler son contexte à chaque échange. Avec ce type d'architecture, un agent peut se souvenir qu'un utilisateur est ingénieur logiciel, qu'il travaille sur un pipeline RAG pour une fintech, et qu'il préfère VS Code en mode sombre, sans que ces informations aient été répétées. Pour les entreprises qui déploient des assistants IA internes, des copilotes de code ou des outils de support client, cela représente un gain de personnalisation et d'efficacité considérable. L'isolation multi-utilisateurs intégrée dans Mem0 garantit par ailleurs que les souvenirs d'un profil ne contaminent pas ceux d'un autre. La mémoire à long terme est l'un des chantiers prioritaires de l'IA générative en 2025-2026, aux côtés du raisonnement et de l'utilisation d'outils. Des acteurs comme OpenAI avec la mémoire de ChatGPT, ou des startups spécialisées telles que Mem0 (anciennement EmbedChain), se positionnent sur ce marché en pleine expansion. L'approche présentée ici est dite "production-ready" : elle exploite ChromaDB en local pour réduire les coûts et la latence, mais reste compatible avec des backends cloud. La tendance de fond est de faire évoluer les agents d'un mode sans état vers une continuité contextuelle, condition nécessaire pour des assistants véritablement utiles sur la durée. Les prochaines étapes probables incluent la gestion de la decay mémorielle (oublier les informations obsolètes) et l'intégration dans des frameworks multi-agents comme LangGraph ou AutoGen.

💬 Le problème de l'amnésie entre sessions, c'est le truc qui rend les agents inutilisables en vrai. Mem0 propose une architecture propre pour ça, avec ChromaDB en local et une isolation multi-utilisateurs qui tient la route, ce qui évite les bricolages maison qu'on voit partout. Bon, "production-ready" ça se vérifie, mais l'approche est solide.

OutilsOutil
1 source
LangChain lance Deep Agents : un environnement d'exécution structuré pour la planification, la mémoire et l'isolation du contexte dans les agents IA multi-étapes
3MarkTechPost 

LangChain lance Deep Agents : un environnement d'exécution structuré pour la planification, la mémoire et l'isolation du contexte dans les agents IA multi-étapes

LangChain a déployé Deep Agents, un ensemble de composants structurés pour la planification, la gestion de la mémoire et l'isolement du contexte dans les agents AI multi-étapes. Contrairement à d'autres systèmes, Deep Agents ne présente pas de nouveau modèle de raisonnement ni un nouveau runtime distinct de LangGraph, mais intègre des paramètres par défaut et outils intégrés autour du boucle standard d'appel d'outils. Les caractéristiques principales incluent une planification via write_todos, des outils de gestion de fichiers, un accès à la shell sécurisé, un outil de tâche pour lancer des sous-agents et des fonctionnalités de gestion contextuelle comme la résumé automatique et le stockage de grands résultats dans des fichiers. Cette approche vise à simplifier le développement d'agents capables de planifier, gérer de grandes quantités de contexte, déléguer des tâches et conserver des informations sur plusieurs conversations.

OutilsOutil
1 source
AutoAgent : la bibliothèque open source qui permet à une IA d'optimiser son propre système d'agents
4MarkTechPost 

AutoAgent : la bibliothèque open source qui permet à une IA d'optimiser son propre système d'agents

Kevin Gu, ingénieur chez thirdlayer.inc, a publié AutoAgent, une bibliothèque open source qui automatise l'optimisation des agents IA. En l'espace de 24 heures d'exécution autonome, le système a atteint la première place sur SpreadsheetBench avec un score de 96,5 %, et la meilleure performance GPT-5 sur TerminalBench avec 55,1 %. Le projet est disponible sur GitHub avec une architecture délibérément minimaliste : un fichier agent.py qui contient l'intégralité du harness sous test, un fichier program.md que l'humain édite pour donner la directive, et un journal d'expériences results.tsv maintenu automatiquement par le méta-agent pour tracer l'historique de chaque run. Le principe est simple mais radical : là où un ingénieur IA passe des journées à ajuster manuellement les prompts système, les définitions d'outils et la logique d'orchestration de son agent, AutoAgent confie cette boucle d'itération à un second agent, le méta-agent, qui lit la directive, inspecte agent.py, exécute le benchmark, analyse les échecs, réécrit les parties pertinentes et recommence. L'humain ne touche jamais agent.py directement. Ce ratchet loop, proposer une modification, mesurer le score, conserver si meilleur, rejeter sinon, est directement inspiré du projet autoresearch d'Andrej Karpathy, qui applique la même logique à l'entraînement de modèles ML. AutoAgent transpose ce mécanisme au niveau du harness : le prompt système, les outils disponibles, le routage entre sous-agents et la stratégie d'orchestration. Concrètement, toute équipe qui développe des agents complexes pourrait déléguer la phase d'optimisation la plus fastidieuse à un processus nocturne entièrement automatisé, réduisant drastiquement le temps humain consacré au réglage fin. Cette publication s'inscrit dans une tendance plus large d'automatisation de l'ingénierie IA elle-même, souvent désignée sous le terme "méta-apprentissage" ou "self-improvement". Depuis que les LLMs ont démontré leur capacité à écrire et modifier du code de manière fiable, plusieurs laboratoires et chercheurs indépendants explorent des architectures où un modèle supervise l'amélioration d'un autre, ou de lui-même. AutoAgent se distingue par sa portée pratique immédiate : il ne requiert pas d'infrastructure exotique, s'appuie sur le format Harbor pour exprimer les benchmarks, et peut être adapté à n'importe quel domaine via les dossiers tasks/ et .agent/. Les résultats sur TerminalBench et SpreadsheetBench, deux benchmarks reconnus dans la communauté, donnent une crédibilité concrète à l'approche. La question ouverte reste celle du contrôle : lorsqu'un méta-agent réécrit librement la logique d'orchestration d'un système en production, les garanties de sécurité et de prévisibilité du comportement final deviennent un enjeu non trivial que la bibliothèque n'adresse pas encore explicitement.

💬 C'est exactement la boucle que tout dev d'agents rêve d'automatiser, et là quelqu'un l'a fait en un seul fichier. Le score sur SpreadsheetBench est bluffant, bon, reste à voir ce que ça donne sur des tâches moins balisées qu'un benchmark. La vraie question, c'est quand le méta-agent commence à réécrire l'orchestration en prod sans que tu comprennes pourquoi ça marche.

OutilsOutil
1 source