Aller au contenu principal
OutilsMarkTechPost7h

Comment construire un système d'agents IA avec routage dynamique des outils, planification et injection de contexte

Résumé IASource uniqueImpact UE
Source originale ↗·

Un tutoriel récemment publié détaille la construction complète d'un système d'agent IA de type MCP (Model Context Protocol) en Python, depuis la configuration jusqu'à l'exécution de tâches réelles. Le système repose sur un serveur d'outils modulaire qui expose des capacités structurées : recherche web via DuckDuckGo, récupération de documents locaux par similarité TF-IDF, chargement de jeux de données et exécution de code Python. Le tout s'appuie sur l'API OpenAI avec le modèle gpt-4.1-mini, et mobilise des bibliothèques comme Pydantic pour la validation des schémas, scikit-learn pour la recherche vectorielle, et Rich pour l'affichage console. Les paramètres globaux limitent volontairement l'agent à trois appels d'outils maximum par tâche, cinq résultats web, et trois documents récupérés, afin de maintenir des performances prévisibles.

Ce que ce tutoriel apporte de concret, c'est une réponse au problème central des agents IA en production : comment éviter qu'un agent appelle n'importe quel outil dans n'importe quel contexte. Le système implémente un routeur hybride qui combine des heuristiques simples et du raisonnement LLM pour décider dynamiquement quels outils rendre visibles selon la tâche en cours. Un agent qui répond à une question factuelle simple ne voit pas les outils d'exécution de code ; un agent qui analyse des données n'a pas accès à la recherche web si elle est inutile. Cette exposition sélective réduit les coûts d'inférence, améliore la traçabilité des décisions, et limite la surface d'erreur, trois enjeux critiques pour quiconque déploie des agents dans un environnement professionnel.

Le Model Context Protocol, popularisé par Anthropic en novembre 2024 comme standard ouvert pour connecter les LLM à des outils externes, cherche à résoudre un problème de fragmentation : chaque développeur réinventait sa propre façon de brancher des modèles à des APIs ou des bases de données. Ce tutoriel illustre comment les principes MCP, notamment l'injection de contexte structuré, les politiques de routage et le contrôle d'accès aux outils, peuvent être implémentés sans framework propriétaire, en Python pur. À mesure que les systèmes multi-agents se multiplient dans les entreprises, cette approche d'exposition minimale et contrôlée des capacités s'impose comme une bonne pratique d'architecture, opposée aux agents monolithiques qui ont accès à tout et dont le comportement devient difficile à auditer ou à reproduire.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Construire un système d'agents modulaires à base de compétences pour LLM avec routage dynamique d'outils en Python
1MarkTechPost 

Construire un système d'agents modulaires à base de compétences pour LLM avec routage dynamique d'outils en Python

Un tutoriel publié récemment détaille comment construire en Python un système d'agents modulaires à base de compétences pour les grands modèles de langage, avec routage dynamique des outils. L'implémentation repose sur OpenAI (modèle GPT-4o-mini) et les bibliothèques open source Pydantic et Rich. L'architecture centrale s'articule autour de trois briques : une classe abstraite Skill qui encapsule chaque capacité (métadonnées, schéma JSON, logique d'exécution), un SkillRegistry qui joue le rôle de catalogue centralisé, et un orchestrateur qui sélectionne et enchaîne les compétences via le mécanisme de tool calling de l'API OpenAI. Chaque compétence est versionnée, auto-descriptive et expose automatiquement son schéma au format attendu par l'API, ce qui permet à un agent de l'invoquer sans configuration manuelle. L'intérêt de cette approche réside dans la séparation stricte entre la logique de chaque compétence et le raisonnement de l'agent. Concrètement, l'agent peut sélectionner la bonne compétence pour une tâche donnée, en composer plusieurs pour des workflows complexes, et charger de nouvelles capacités à chaud en cours d'exécution sans redémarrer le système. Un tableau de bord d'observabilité intégré trace le nombre d'appels et la latence moyenne de chaque compétence, ce qui facilite le débogage et l'optimisation en production. Pour les équipes qui construisent des agents LLM, cette modularité réduit la dette technique : ajouter une nouvelle capacité revient à écrire une classe isolée, sans toucher au reste du pipeline. Cette architecture s'inscrit dans une tendance plus large de structuration des systèmes agentiques, accélérée par la généralisation du tool calling dans les API des principaux fournisseurs (OpenAI, Anthropic, Google). La métaphore utilisée dans le tutoriel est explicite : le registre de compétences fonctionne comme une table de syscalls d'un système d'exploitation, l'agent étant le noyau qui dispatche les requêtes. Face à la multiplication des frameworks concurrents (LangChain, LlamaIndex, AutoGen), cette approche "from scratch" permet de comprendre les mécanismes sous-jacents et d'éviter les abstractions opaques. La prochaine étape logique de cette architecture est l'ajout de mémoire persistante et de planification multi-tours, deux fronts sur lesquels la recherche en agents LLM reste très active en 2025.

OutilsTuto
1 source
Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique
2MarkTechPost 

Concevoir un système multi-agents CAMEL de production : planification, outils, cohérence et affinement critique

Un tutoriel publié récemment détaille comment concevoir un système multi-agents de niveau production à l'aide du framework CAMEL, une bibliothèque Python open source dédiée à l'orchestration d'agents LLM. Le pipeline décrit met en scène cinq agents spécialisés aux rôles clairement délimités : un planificateur, un chercheur, un rédacteur, un critique et un rééditeur. L'ensemble repose sur GPT-4o d'OpenAI (via l'API), la validation de schémas avec Pydantic 2.7, et l'affichage structuré via Rich 13.7. Concrètement, le système génère des synthèses techniques documentées de façon autonome, en combinant recherche web en temps réel, échantillonnage par auto-cohérence et raffinement itératif piloté par critique interne. Ce type d'architecture multi-agents représente une évolution significative par rapport aux approches LLM classiques en pipeline simple. En distribuant les responsabilités entre agents distincts, chacun doté de contraintes de sortie précises (schémas JSON validés par Pydantic), le système réduit les hallucinations et améliore la cohérence des résultats. L'ajout d'un agent critique qui évalue la production de l'agent rédacteur, puis déclenche un agent rééditeur si le score est insuffisant, introduit une boucle de contrôle qualité autonome : le système s'auto-corrige sans intervention humaine. Pour les équipes produit ou data qui cherchent à industrialiser des workflows de génération de contenu ou d'analyse, cette approche offre un cadre reproductible, modulaire et extensible. CAMEL (Communicative Agents for "Mind" Exploration of Large Language Model Society) est un framework open source initié en 2023, qui a gagné en maturité avec des versions stables permettant l'intégration native d'outils web, de modèles multi-plateformes et de mécanismes de validation structurée. Le tutoriel s'inscrit dans un mouvement plus large d'industrialisation des agents LLM, où des acteurs comme LangChain, AutoGen de Microsoft ou CrewAI cherchent à standardiser la façon dont on compose des agents spécialisés. L'enjeu central est de passer du prototype expérimental au système fiable en production, ce qui exige précisément les mécanismes décrits ici : contrôle de schéma, gestion des erreurs, logique de retry et traçabilité des sorties. Les prochaines évolutions de ces frameworks devraient intégrer davantage de mémoire persistante entre agents et des mécanismes de délégation dynamique des tâches, rapprochant ces systèmes des premières formes d'automatisation cognitive véritablement autonome.

OutilsTuto
1 source
3MarkTechPost 

Implémentation pratique de systèmes multi-agents avec SmolAgents : exécution de code, appels d'outils et orchestration dynamique

SmolAgents, le framework minimaliste d'agents IA publié par HuggingFace, fait l'objet d'un tutoriel technique détaillé montrant comment construire des systèmes multi-agents prêts pour la production. La version stable utilisée est la 1.24.0, couplée au modèle OpenAI gpt-4o-mini via l'interface LiteLLM. Le tutoriel couvre l'ensemble de la chaîne : installation des dépendances (smolagents, duckduckgo-search, wikipedia), configuration sécurisée des clés API, création d'outils personnalisés (conversion de températures, vérification de nombres premiers, stockage clé-valeur en mémoire), puis orchestration de plusieurs agents collaborant entre eux. Deux paradigmes d'agents sont explorés en parallèle : le CodeAgent, qui génère et exécute du code Python dans un environnement sandbox, et le ToolCallingAgent, qui appelle des outils de façon structurée. Depuis la version 1.8.0, la gestion multi-agents se fait en passant directement des sous-agents via le paramètre managedagents, la classe ManagedAgent ayant été supprimée. Ce type de tutoriel révèle l'état réel des pratiques en matière de développement d'agents IA en 2025 : les développeurs cherchent des frameworks légers, modulaires et transparents, en réaction à la complexité des solutions précédentes comme LangChain ou AutoGen. SmolAgents répond à ce besoin en exposant une boucle d'exécution simple (tâche, génération de code, exécution, observation, itération jusqu'à finalanswer()), tout en permettant une gestion dynamique des outils via un dictionnaire agent.tools modifiable à la volée. Pour les équipes qui construisent des applications IA en production, cette approche réduit les abstractions inutiles et facilite le débogage, deux points critiques lorsque les agents opèrent dans des environnements réels avec des données sensibles ou des contraintes de latence. L'essor de SmolAgents s'inscrit dans une tendance plus large : après l'enthousiasme pour les agents autonomes "tout-en-un", l'industrie converge vers des architectures modulaires où des agents spécialisés collaborent plutôt qu'un seul agent tente de tout faire. HuggingFace, fort de sa communauté open-source et de son écosystème de modèles, positionne SmolAgents comme l'alternative légère aux frameworks propriétaires, compatible avec des LLMs locaux ou des API tierces. La suppression de ManagedAgent en v1.8.0 illustre la maturité croissante du framework et sa volonté de simplifier l'API à mesure que les cas d'usage se stabilisent. Les prochaines évolutions attendues portent sur l'intégration native d'outils de recherche, de mémoire persistante et de sandboxing renforcé, des briques essentielles pour déployer des agents dans des contextes d'entreprise.

UEHuggingFace, entreprise fondée en France, consolide son écosystème open-source avec SmolAgents, offrant aux équipes de développement européennes une alternative légère et auditable aux frameworks d'agents propriétaires.

💬 SmolAgents fait exactement ce qu'il promet : rester petit. Après des mois à me battre avec LangChain sur des trucs qui auraient dû prendre 10 lignes, voir un framework qui expose sa boucle d'exécution à plat, sans magie cachée, c'est presque reposant. Reste à voir si ça tient quand les agents tournent avec de vraies contraintes de latence et des données sensibles, mais c'est le bon pari.

OutilsTuto
1 source
Construire un runtime d'agents local-first sécurisé avec OpenClaw Gateway, skills et exécution contrôlée des outils
4MarkTechPost 

Construire un runtime d'agents local-first sécurisé avec OpenClaw Gateway, skills et exécution contrôlée des outils

OpenClaw Gateway s'impose progressivement comme une solution de référence pour les développeurs souhaitant déployer des agents IA en environnement local, sans dépendance à une infrastructure cloud tierce. Le projet, distribué via npm sous le nom openclaw, s'installe en quelques commandes sur Node.js 22 et expose un serveur de contrôle sur le port 18789 en mode loopback, c'est-à-dire uniquement accessible depuis la machine locale. L'agent communique avec des modèles de langage via une couche de routage configurable, dans les exemples fournis, OpenAI GPT-4o-mini est utilisé comme modèle principal, et orchestre l'exécution d'outils et de compétences personnalisées (appelées « skills ») au travers d'un plan de contrôle centralisé. L'authentification aux APIs de modèles passe par des variables d'environnement, jamais par des secrets codés en dur, et le runtime dispose d'une interface de contrôle web optionnelle accessible via le chemin /openclaw. Ce type d'architecture répond à un besoin croissant dans l'industrie : faire fonctionner des agents autonomes dans des environnements contraints, isolés du réseau public, où la confidentialité des données et la maîtrise des appels aux modèles sont non négociables. Le binding en loopback empêche toute exposition accidentelle du gateway sur le réseau local ou internet, tandis que le mécanisme de timeout configurable sur l'outil exec (1 800 secondes par défaut) et la gestion propre des processus en arrière-plan permettent d'encadrer précisément ce que l'agent est autorisé à faire. Pour les équipes travaillant sur des workflows d'automatisation sensibles, traitement de documents confidentiels, pipelines DevOps internes, assistants métier, cette approche offre un cadre de sécurité que les solutions SaaS ne peuvent garantir par construction. La capacité à définir des skills structurées, découvrables et invocables de manière déterministe par l'agent constitue également un avantage notable pour la reproductibilité des comportements en production. OpenClaw s'inscrit dans une tendance plus large de «local-first AI», portée par des projets comme Ollama pour l'inférence locale ou LM Studio pour la gestion de modèles. Face aux préoccupations réglementaires croissantes autour du traitement des données personnelles, RGPD en Europe, diverses lois sectorielles aux États-Unis, et à la méfiance envers les dépendances cloud critiques, plusieurs startups et équipes d'ingénierie cherchent à rapatrier le cycle complet de raisonnement des agents sur leur propre infrastructure. OpenClaw se positionne sur ce segment en proposant une couche d'abstraction entre le code applicatif Python ou JavaScript et les runtimes de modèles, avec une configuration déclarative en JSON. La prochaine étape logique sera probablement l'intégration native de modèles open source via des backends comme Ollama, pour s'affranchir totalement des API propriétaires tout en conservant la rigueur du contrôle d'exécution.

UELe mode local-first et l'absence de dépendance cloud facilitent la conformité RGPD pour les équipes européennes traitant des données personnelles.

💬 C'est le genre de projet qui arrive au bon moment, quand les DPO commencent à bloquer systématiquement les intégrations SaaS IA dans les grandes boîtes. Le binding loopback par défaut et la définition des skills en JSON déclaratif, c'est exactement ce qu'il faut pour convaincre une équipe sécu que ton agent ne va pas exfiltrer des données sensibles par accident. Reste à voir si l'écosystème grossit assez vite avant qu'un acteur plus connu ne sorte la même chose avec dix fois les ressources derrière.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour