Aller au contenu principal
Des chercheurs de Stanford publient OpenJarvis : un framework local pour créer des agents IA personnels dotés d'outils, de mémoire et d'apprentissage
OutilsMarkTechPost6sem

Des chercheurs de Stanford publient OpenJarvis : un framework local pour créer des agents IA personnels dotés d'outils, de mémoire et d'apprentissage

Résumé IASource uniqueImpact UE
Source originale ↗·

Des chercheurs de Stanford ont publié OpenJarvis, un framework open-source permettant de construire des agents IA personnels fonctionnant entièrement en local, sans dépendance au cloud. Le projet repose sur cinq primitives composables (Intelligence, Engine, Agents, Tools & Memory, Learning) et s'appuie sur des résultats antérieurs montrant que les modèles locaux peuvent traiter 88,7 % des requêtes avec une efficacité améliorée de 5,3× entre 2023 et 2025. OpenJarvis supporte plusieurs backends d'inférence (Ollama, vLLM, llama.cpp) et vise à standardiser le développement d'agents IA locaux mesurables et adaptables.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1MarkTechPost 

Créer une couche de mémoire à long terme universelle pour les agents IA avec Mem0 et OpenAI

Des chercheurs et développeurs s'appuient désormais sur Mem0, une bibliothèque open source compatible avec les modèles OpenAI et la base de données vectorielle ChromaDB, pour construire une couche de mémoire persistante destinée aux agents d'intelligence artificielle. Le principe repose sur une architecture en plusieurs modules : extraction automatique de souvenirs structurés à partir de conversations naturelles, stockage sémantique dans ChromaDB via les embeddings text-embedding-3-small, récupération contextuelle par recherche vectorielle, et intégration directe dans les réponses générées par GPT-4.1-nano. Concrètement, le système segmente les échanges conversationnels en faits durables associés à un identifiant utilisateur, comme les préférences techniques, les projets en cours ou les informations personnelles, puis les rend disponibles lors des interactions futures via une API CRUD complète permettant d'ajouter, modifier, supprimer ou interroger ces souvenirs. Cette approche résout un problème fondamental des agents IA actuels : leur amnésie entre les sessions. Sans mémoire persistante, chaque conversation repart de zéro, obligeant l'utilisateur à reformuler son contexte à chaque échange. Avec ce type d'architecture, un agent peut se souvenir qu'un utilisateur est ingénieur logiciel, qu'il travaille sur un pipeline RAG pour une fintech, et qu'il préfère VS Code en mode sombre, sans que ces informations aient été répétées. Pour les entreprises qui déploient des assistants IA internes, des copilotes de code ou des outils de support client, cela représente un gain de personnalisation et d'efficacité considérable. L'isolation multi-utilisateurs intégrée dans Mem0 garantit par ailleurs que les souvenirs d'un profil ne contaminent pas ceux d'un autre. La mémoire à long terme est l'un des chantiers prioritaires de l'IA générative en 2025-2026, aux côtés du raisonnement et de l'utilisation d'outils. Des acteurs comme OpenAI avec la mémoire de ChatGPT, ou des startups spécialisées telles que Mem0 (anciennement EmbedChain), se positionnent sur ce marché en pleine expansion. L'approche présentée ici est dite "production-ready" : elle exploite ChromaDB en local pour réduire les coûts et la latence, mais reste compatible avec des backends cloud. La tendance de fond est de faire évoluer les agents d'un mode sans état vers une continuité contextuelle, condition nécessaire pour des assistants véritablement utiles sur la durée. Les prochaines étapes probables incluent la gestion de la decay mémorielle (oublier les informations obsolètes) et l'intégration dans des frameworks multi-agents comme LangGraph ou AutoGen.

💬 Le problème de l'amnésie entre sessions, c'est le truc qui rend les agents inutilisables en vrai. Mem0 propose une architecture propre pour ça, avec ChromaDB en local et une isolation multi-utilisateurs qui tient la route, ce qui évite les bricolages maison qu'on voit partout. Bon, "production-ready" ça se vérifie, mais l'approche est solide.

OutilsOutil
1 source
Agents IA autonomes : les meilleurs outils à installer en local sur son PC
2Le Big Data 

Agents IA autonomes : les meilleurs outils à installer en local sur son PC

Les agents IA autonomes capables de s'exécuter directement sur un ordinateur personnel constituent une nouvelle génération d'outils radicalement différents des chatbots classiques. Contrairement à ces derniers, ils ne se contentent pas de répondre à des questions : ils planifient et exécutent des missions complexes de façon indépendante, en décomposant un objectif large en étapes logiques, en vérifiant leurs propres résultats et en ajustant leur stratégie en cas d'erreur. Sur le plan technique, ces systèmes s'appuient sur un modèle de langage (LLM) comme moteur de raisonnement, couplé à une mémoire de suivi et à des outils d'action concrets, lecture de fichiers, navigation web, exécution de code. Des frameworks comme LangChain, CrewAI ou AutoGen structurent ces opérations, tandis que des applications comme GPT4All (développée par Nomic AI) ou Ollama permettent de faire tourner localement des modèles comme Llama 3 ou Mistral. Le choix du modèle dépend directement du matériel disponible : un modèle de 7 milliards de paramètres quantifié (Q4/Q5) exige environ 8 Go de VRAM, quand la précision standard (fp16) double ce besoin, et les modèles de 13 à 34 milliards de paramètres requièrent au moins 24 Go. L'intérêt principal de cette exécution en local réside dans la souveraineté des données et l'indépendance opérationnelle. Les documents sensibles ne quittent jamais le disque dur, ce qui supprime les risques liés aux fuites de données sur des serveurs tiers. L'absence de connexion internet requise élimine également les pannes dépendant de services cloud, les frais d'API et les abonnements mensuels. Pour les professionnels manipulant des données confidentielles, données médicales, juridiques, financières, cette rupture avec le cloud représente un changement de paradigme concret. Les outils comme Lain Agent ciblent les utilisateurs non techniques sous Windows sans configuration avancée, tandis qu'AutoGen ou LangChain offrent aux développeurs une flexibilité totale pour connecter ces agents à des systèmes Git, des bases de données ou des pipelines d'automatisation. Ce mouvement vers l'IA locale s'inscrit dans une tendance plus large de démocratisation matérielle accélérée par la montée en puissance des GPU grand public et des puces NPU intégrées dans les processeurs modernes. Pendant des années, exécuter un LLM performant nécessitait une infrastructure serveur hors de portée du particulier. La quantification des modèles et l'optimisation des runtimes comme Ollama ont radicalement abaissé cette barrière. Les acteurs impliqués sont aussi bien des laboratoires de recherche open source (Meta avec Llama, Mistral AI) que des startups spécialisées dans l'outillage local (Nomic AI). La prochaine étape logique sera l'intégration native de ces agents dans les systèmes d'exploitation et les environnements de développement, rendant l'autonomie locale accessible sans aucune configuration technique préalable.

UEMistral AI (entreprise française) est citée comme acteur clé du mouvement open source local, et la souveraineté des données mise en avant répond directement aux contraintes RGPD pesant sur les entreprises européennes.

OutilsOutil
1 source
Comment créer des workflows AgentScope prêts pour la production avec agents ReAct, outils personnalisés, débat multi-agents, sorties structurées et pipelines concurrents
3MarkTechPost 

Comment créer des workflows AgentScope prêts pour la production avec agents ReAct, outils personnalisés, débat multi-agents, sorties structurées et pipelines concurrents

AgentScope, le framework open-source de gestion d'agents IA développé par Alibaba DAMO Academy, dispose désormais d'un tutoriel complet permettant de construire des workflows multi-agents prêts pour la production. Publié début 2026 et conçu pour tourner intégralement dans Google Colab, ce guide pas à pas couvre cinq niveaux de complexité croissante : de l'appel basique à un modèle OpenAI jusqu'à un pipeline concurrent où plusieurs agents spécialistes travaillent en parallèle. La stack technique repose sur Python 3, les bibliothèques agentscope, openai, pydantic et nest_asyncio, avec le modèle gpt-4o-mini comme moteur de raisonnement. Le tutoriel montre comment enregistrer des fonctions Python personnalisées — calcul mathématique, horodatage — dans un Toolkit, inspecter les schémas JSON générés automatiquement, puis connecter ces outils à un agent ReActAgent capable de décider dynamiquement quand les appeler. Ce type de ressource répond à un besoin concret dans l'écosystème des agents IA : la majorité des développeurs savent appeler un LLM, mais peinent à passer à une architecture robuste et modulaire en production. Le tutoriel introduit notamment MsgHub, la primitive d'AgentScope pour orchestrer des débats structurés entre agents — un pattern utile pour la vérification de faits, la critique de code ou la validation de décisions critiques. L'intégration de Pydantic pour forcer des sorties structurées élimine l'un des problèmes les plus fréquents en production : les réponses libres d'un LLM qui cassent le parsing aval. Enfin, le pipeline concurrent — plusieurs spécialistes analysent un problème en parallèle, un synthétiseur agrège leurs conclusions — réduit significativement la latence pour les tâches décomposables, ce qui est central dans les systèmes d'analyse ou de veille automatisée. AgentScope s'inscrit dans une compétition féroce entre frameworks d'orchestration d'agents : LangChain, LlamaIndex, AutoGen de Microsoft ou CrewAI occupent déjà le terrain, mais AgentScope mise sur une API asynchrone native, une gestion mémoire intégrée (InMemoryMemory) et des formateurs de messages spécifiques aux providers (OpenAIChatFormatter, OpenAIMultiAgentFormatter). Le choix de gpt-4o-mini comme modèle de référence dans le tutoriel reflète l'orientation coût/performance qui domine les déploiements réels en 2025-2026. La prochaine étape logique pour ce type de workflow serait l'intégration de mémoire persistante externe et de mécanismes de supervision — deux angles sur lesquels la communauté AgentScope est activement attendue.

💬 AgentScope commence à ressembler à quelque chose de sérieux. Le pattern `MsgHub` pour les débats structurés entre agents, c'est exactement ce qui manque quand tu essaies de faire de la validation critique sans que tout parte en freestyle. Reste à voir si ça tient face à AutoGen ou CrewAI en conditions réelles, parce que sur le papier, tous ces frameworks ont l'air bien jusqu'au premier bug de prod.

OutilsTuto
1 source
Google lance un outil pour connecter des agents d’IA comme OpenClaw à Gmail et Drive
4Siècle Digital 

Google lance un outil pour connecter des agents d’IA comme OpenClaw à Gmail et Drive

Google a lancé un nouvel outil destiné aux développeurs pour faciliter l'intégration d'agents d'IA autonomes dans Google Workspace. Cet outil permet de connecter des agents comme OpenClaw à des services tels que Gmail et Drive. Cette initiative s'inscrit dans l'adaptation de Google à la nouvelle génération d'assistants IA capables d'agir de manière indépendante.

OutilsOutil
1 source