Aller au contenu principal
LangChain lance Deep Agents : un environnement d'exécution structuré pour la planification, la mémoire et l'isolation du contexte dans les agents IA multi-étapes
OutilsMarkTechPost6sem

LangChain lance Deep Agents : un environnement d'exécution structuré pour la planification, la mémoire et l'isolation du contexte dans les agents IA multi-étapes

Résumé IASource uniqueImpact UE
Source originale ↗·

LangChain vient de lancer Deep Agents, une bibliothèque autonome conçue pour les agents IA multi-étapes qui nécessitent planification, gestion de contexte et isolation des sous-tâches. Contrairement aux agents classiques qui fonctionnent bien sur des boucles courtes d'appels d'outils, Deep Agents cible les tâches longues, avec état et produisant de nombreux artefacts — un cas d'usage où la plupart des systèmes existants commencent à flancher.

L'enjeu est important pour les développeurs qui construisent des agents capables de mener des recherches approfondies, de générer du code sur plusieurs itérations ou d'effectuer des analyses complexes. Jusqu'ici, la gestion de la planification, du stockage intermédiaire et de la délégation de sous-tâches était entièrement à la charge des équipes applicatives. Deep Agents intègre ces mécanismes directement dans le runtime par défaut, réduisant la friction à l'implémentation tout en restant compatible avec LangGraph pour l'exécution durable, le streaming et les workflows human-in-the-loop.

Concrètement, la bibliothèque embarque d'office un outil de planification writetodos pour décomposer les tâches en étapes traçables, un ensemble d'outils filesystem (readfile, writefile, editfile, glob, grep), un accès shell sandboxé via execute, et un outil task pour instancier des sous-agents isolés. La gestion de contexte repose sur l'écriture des sorties volumineuses en fichiers plutôt qu'en prompt actif, évitant ainsi le dépassement de la fenêtre de contexte. Plusieurs backends sont supportés — StateBackend, FilesystemBackend, LocalShellBackend, StoreBackend et CompositeBackend — le mode par défaut étant StateBackend, qui stocke un filesystem éphémère dans l'état LangGraph pour un thread unique.

La mémoire long terme est également prévue via le LangGraph Memory Store, permettant à l'agent de persister et retrouver des informations entre conversations. LangChain positionne Deep Agents comme point d'entrée privilégié pour les développeurs ayant des besoins complexes, tout en laissant ouverte la possibilité de basculer vers des agents LangChain plus simples ou des workflows LangGraph personnalisés selon les besoins.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique
1MarkTechPost 

Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique

Un tutoriel publié récemment détaille comment concevoir un système multi-agents de niveau production à l'aide du framework CAMEL, une bibliothèque Python open source dédiée à l'orchestration d'agents LLM. Le pipeline décrit met en scène cinq agents spécialisés aux rôles clairement délimités : un planificateur, un chercheur, un rédacteur, un critique et un rééditeur. L'ensemble repose sur GPT-4o d'OpenAI (via l'API), la validation de schémas avec Pydantic 2.7, et l'affichage structuré via Rich 13.7. Concrètement, le système génère des synthèses techniques documentées de façon autonome, en combinant recherche web en temps réel, échantillonnage par auto-cohérence et raffinement itératif piloté par critique interne. Ce type d'architecture multi-agents représente une évolution significative par rapport aux approches LLM classiques en pipeline simple. En distribuant les responsabilités entre agents distincts, chacun doté de contraintes de sortie précises (schémas JSON validés par Pydantic), le système réduit les hallucinations et améliore la cohérence des résultats. L'ajout d'un agent critique qui évalue la production de l'agent rédacteur, puis déclenche un agent rééditeur si le score est insuffisant, introduit une boucle de contrôle qualité autonome : le système s'auto-corrige sans intervention humaine. Pour les équipes produit ou data qui cherchent à industrialiser des workflows de génération de contenu ou d'analyse, cette approche offre un cadre reproductible, modulaire et extensible. CAMEL (Communicative Agents for "Mind" Exploration of Large Language Model Society) est un framework open source initié en 2023, qui a gagné en maturité avec des versions stables permettant l'intégration native d'outils web, de modèles multi-plateformes et de mécanismes de validation structurée. Le tutoriel s'inscrit dans un mouvement plus large d'industrialisation des agents LLM, où des acteurs comme LangChain, AutoGen de Microsoft ou CrewAI cherchent à standardiser la façon dont on compose des agents spécialisés. L'enjeu central est de passer du prototype expérimental au système fiable en production, ce qui exige précisément les mécanismes décrits ici : contrôle de schéma, gestion des erreurs, logique de retry et traçabilité des sorties. Les prochaines évolutions de ces frameworks devraient intégrer davantage de mémoire persistante entre agents et des mécanismes de délégation dynamique des tâches, rapprochant ces systèmes des premières formes d'automatisation cognitive véritablement autonome.

OutilsTuto
1 source
2InfoQ AI 

LinkedIn présente son agent de mémoire cognitive pour les agents IA

LinkedIn a dévoilé le Cognitive Memory Agent (CMA), une couche d'infrastructure d'IA générative destinée à rendre les systèmes d'intelligence artificielle persistants et conscients du contexte dans lequel ils opèrent. Ce framework fournit une mémoire durable organisée en trois couches distinctes : épisodique, qui retient les interactions passées ; sémantique, qui stocke les connaissances générales ; et procédurale, qui encode les comportements appris. Le CMA prend également en charge la coordination entre plusieurs agents, la récupération d'informations et la gestion complète du cycle de vie des mémoires. Cette initiative s'attaque à une limitation fondamentale des grands modèles de langage : leur absence d'état entre les sessions. Sans mémoire externe, chaque interaction repart de zéro, rendant impossible toute personnalisation durable. En déployant le CMA dans ses propres applications, LinkedIn ouvre la voie à des assistants IA capables de se souvenir des préférences professionnelles d'un utilisateur, de ses recherches d'emploi passées ou de ses habitudes de networking, transformant ainsi l'expérience sur une plateforme de plus d'un milliard d'utilisateurs. La mémoire des agents est devenue l'un des chantiers prioritaires de l'industrie, alors que les entreprises cherchent à faire passer leurs systèmes d'IA du mode réactif au mode autonome et continu. OpenAI, Google DeepMind et Anthropic développent des architectures comparables, mais LinkedIn dispose d'un avantage singulier : une base de données professionnelles sans équivalent. Le CMA positionne l'entreprise pour intégrer ces capacités directement dans ses outils de recrutement, de formation et de recommandation, avec des implications profondes sur la façon dont les professionnels interagiront avec l'IA au quotidien.

UELes millions de professionnels français inscrits sur LinkedIn pourraient voir leurs interactions avec les outils de recrutement et de formation de la plateforme profondément transformées par cette couche de mémoire persistante.

OutilsOpinion
1 source
Guide complet du pipeline d'agents nanobot : outils, mémoire, sous-agents et planification cron
3MarkTechPost 

Guide complet du pipeline d'agents nanobot : outils, mémoire, sous-agents et planification cron

Le framework nanobot, développé par le laboratoire HKUDS de l'Université de Hong Kong, s'impose comme l'une des solutions les plus légères pour construire des agents IA personnels complets. Rédigé en environ 4 000 lignes de Python, il embarque l'ensemble du pipeline agent : boucle de raisonnement, exécution d'outils, persistance mémoire, chargement de compétences (skills), gestion de sessions, délégation à des sous-agents et planification via cron. Un tutoriel publié récemment propose d'en reconstruire chaque sous-système à la main, en utilisant le modèle gpt-4o-mini d'OpenAI comme moteur LLM, afin de comprendre précisément leur fonctionnement plutôt que de simplement les utiliser en boîte noire. Le tutoriel progresse étape par étape : depuis une simple boucle d'appel d'outil jusqu'à un pipeline de recherche multi-étapes capable de lire et d'écrire des fichiers, de stocker des mémoires à long terme, et de déléguer des tâches à des agents parallèles fonctionnant en arrière-plan. Ce type de ressource pédagogique a une valeur pratique immédiate pour les développeurs qui souhaitent construire des agents IA sans dépendre de frameworks lourds comme LangChain ou AutoGen, dont la complexité et l'opacité sont souvent citées comme obstacles à la maintenance et à la compréhension. Nanobot mise sur la lisibilité du code source pour permettre aux équipes techniques de personnaliser chaque composant : outils sur mesure, architectures d'agents propres, logiques de scheduling adaptées. Pour un développeur solo ou une petite équipe, pouvoir déployer un agent personnel — capable d'effectuer des recherches, de mémoriser des contextes entre sessions et de lancer des tâches planifiées — en s'appuyant sur moins de 5 000 lignes de code auditables représente un changement d'échelle significatif. Nanobot s'inscrit dans une tendance plus large de miniaturisation des frameworks agentiques, portée par la maturité croissante des API LLM et la volonté de réduire la dette technique dans les projets IA. Alors que les grandes plateformes comme OpenAI ou Anthropic poussent leurs propres solutions d'orchestration, des projets open source légers comme nanobot, smolagents (HuggingFace) ou DSPy cherchent à garder le contrôle dans les mains des développeurs. HKUDS, connu pour ses travaux sur les systèmes de recommandation et les graphes de connaissances, confirme ici une diversification vers l'ingénierie agentique appliquée. Les prochaines évolutions du framework pourraient intégrer une compatibilité multi-modèles élargie, notamment vers les LLM open source via Ollama, et un système de partage de skills entre utilisateurs.

OutilsTuto
1 source
NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes
4MarkTechPost 

NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes

NVIDIA a mis en open source OpenShell, un environnement d'exécution sécurisé conçu pour les agents IA autonomes, publié sous licence Apache 2.0. Il offre un sandboxing au niveau noyau, un moteur de politiques granulaires (contrôle par binaire, endpoint et méthode API) avec journalisation complète, ainsi qu'un routage d'inférence privé pour éviter les fuites de données. OpenShell est agnostique aux frameworks — compatible avec Claude Code, Codex, LangChain et autres — et s'intègre comme une couche de sécurité sans réécriture du code agent.

UEOpenShell peut être adopté par les développeurs et entreprises européens pour sécuriser leurs agents IA autonomes, en répondant aux exigences de traçabilité et de contrôle imposées par l'AI Act européen.

OutilsOutil
1 source