Aller au contenu principal
OutilsMarkTechPost3h

Implémentation pratique de systèmes multi-agents avec SmolAgents : exécution de code, appels d'outils et orchestration dynamique

1 source couvre ce sujet·Source originale ↗·

SmolAgents, le framework minimaliste d'agents IA publié par HuggingFace, fait l'objet d'un tutoriel technique détaillé montrant comment construire des systèmes multi-agents prêts pour la production. La version stable utilisée est la 1.24.0, couplée au modèle OpenAI gpt-4o-mini via l'interface LiteLLM. Le tutoriel couvre l'ensemble de la chaîne : installation des dépendances (smolagents, duckduckgo-search, wikipedia), configuration sécurisée des clés API, création d'outils personnalisés (conversion de températures, vérification de nombres premiers, stockage clé-valeur en mémoire), puis orchestration de plusieurs agents collaborant entre eux. Deux paradigmes d'agents sont explorés en parallèle : le CodeAgent, qui génère et exécute du code Python dans un environnement sandbox, et le ToolCallingAgent, qui appelle des outils de façon structurée. Depuis la version 1.8.0, la gestion multi-agents se fait en passant directement des sous-agents via le paramètre managed_agents, la classe ManagedAgent ayant été supprimée.

Ce type de tutoriel révèle l'état réel des pratiques en matière de développement d'agents IA en 2025 : les développeurs cherchent des frameworks légers, modulaires et transparents, en réaction à la complexité des solutions précédentes comme LangChain ou AutoGen. SmolAgents répond à ce besoin en exposant une boucle d'exécution simple (tâche, génération de code, exécution, observation, itération jusqu'à final_answer()), tout en permettant une gestion dynamique des outils via un dictionnaire agent.tools modifiable à la volée. Pour les équipes qui construisent des applications IA en production, cette approche réduit les abstractions inutiles et facilite le débogage, deux points critiques lorsque les agents opèrent dans des environnements réels avec des données sensibles ou des contraintes de latence.

L'essor de SmolAgents s'inscrit dans une tendance plus large : après l'enthousiasme pour les agents autonomes "tout-en-un", l'industrie converge vers des architectures modulaires où des agents spécialisés collaborent plutôt qu'un seul agent tente de tout faire. HuggingFace, fort de sa communauté open-source et de son écosystème de modèles, positionne SmolAgents comme l'alternative légère aux frameworks propriétaires, compatible avec des LLMs locaux ou des API tierces. La suppression de ManagedAgent en v1.8.0 illustre la maturité croissante du framework et sa volonté de simplifier l'API à mesure que les cas d'usage se stabilisent. Les prochaines évolutions attendues portent sur l'intégration native d'outils de recherche, de mémoire persistante et de sandboxing renforcé, des briques essentielles pour déployer des agents dans des contextes d'entreprise.

Impact France/UE

HuggingFace, entreprise fondée en France, consolide son écosystème open-source avec SmolAgents, offrant aux équipes de développement européennes une alternative légère et auditable aux frameworks d'agents propriétaires.

💬 Le point de vue du dev

SmolAgents fait exactement ce qu'il promet : rester petit. Après des mois à me battre avec LangChain sur des trucs qui auraient dû prendre 10 lignes, voir un framework qui expose sa boucle d'exécution à plat, sans magie cachée, c'est presque reposant. Reste à voir si ça tient quand les agents tournent avec de vraies contraintes de latence et des données sensibles, mais c'est le bon pari.

À lire aussi

1MarkTechPost 

Créer une couche de mémoire à long terme universelle pour les agents IA avec Mem0 et OpenAI

Des chercheurs et développeurs s'appuient désormais sur Mem0, une bibliothèque open source compatible avec les modèles OpenAI et la base de données vectorielle ChromaDB, pour construire une couche de mémoire persistante destinée aux agents d'intelligence artificielle. Le principe repose sur une architecture en plusieurs modules : extraction automatique de souvenirs structurés à partir de conversations naturelles, stockage sémantique dans ChromaDB via les embeddings text-embedding-3-small, récupération contextuelle par recherche vectorielle, et intégration directe dans les réponses générées par GPT-4.1-nano. Concrètement, le système segmente les échanges conversationnels en faits durables associés à un identifiant utilisateur, comme les préférences techniques, les projets en cours ou les informations personnelles, puis les rend disponibles lors des interactions futures via une API CRUD complète permettant d'ajouter, modifier, supprimer ou interroger ces souvenirs. Cette approche résout un problème fondamental des agents IA actuels : leur amnésie entre les sessions. Sans mémoire persistante, chaque conversation repart de zéro, obligeant l'utilisateur à reformuler son contexte à chaque échange. Avec ce type d'architecture, un agent peut se souvenir qu'un utilisateur est ingénieur logiciel, qu'il travaille sur un pipeline RAG pour une fintech, et qu'il préfère VS Code en mode sombre, sans que ces informations aient été répétées. Pour les entreprises qui déploient des assistants IA internes, des copilotes de code ou des outils de support client, cela représente un gain de personnalisation et d'efficacité considérable. L'isolation multi-utilisateurs intégrée dans Mem0 garantit par ailleurs que les souvenirs d'un profil ne contaminent pas ceux d'un autre. La mémoire à long terme est l'un des chantiers prioritaires de l'IA générative en 2025-2026, aux côtés du raisonnement et de l'utilisation d'outils. Des acteurs comme OpenAI avec la mémoire de ChatGPT, ou des startups spécialisées telles que Mem0 (anciennement EmbedChain), se positionnent sur ce marché en pleine expansion. L'approche présentée ici est dite "production-ready" : elle exploite ChromaDB en local pour réduire les coûts et la latence, mais reste compatible avec des backends cloud. La tendance de fond est de faire évoluer les agents d'un mode sans état vers une continuité contextuelle, condition nécessaire pour des assistants véritablement utiles sur la durée. Les prochaines étapes probables incluent la gestion de la decay mémorielle (oublier les informations obsolètes) et l'intégration dans des frameworks multi-agents comme LangGraph ou AutoGen.

💬 Le problème de l'amnésie entre sessions, c'est le truc qui rend les agents inutilisables en vrai. Mem0 propose une architecture propre pour ça, avec ChromaDB en local et une isolation multi-utilisateurs qui tient la route, ce qui évite les bricolages maison qu'on voit partout. Bon, "production-ready" ça se vérifie, mais l'approche est solide.

OutilsOutil
1 source
2Le Big Data 

NVIDIA vient de tuer le rendu 3D classique : découvrez Lyra 2.0 !

NVIDIA a publié le 15 avril 2026 Lyra 2.0, un nouveau framework de recherche capable de générer des environnements 3D persistants et explorables à grande échelle. Développé par NVIDIA Research, cet outil repose sur une génération vidéo 3D guidée par une caméra virtuelle : le système reconstruit progressivement la structure volumétrique d'une scène à partir de séquences d'images, transformant chaque mouvement de caméra en matière tridimensionnelle exploitable. La particularité centrale est la persistance géométrique, chaque zone visitée est mémorisée par image, ce qui permet de revenir en arrière sans que le système réinvente les détails disparus de son champ de vue. Lyra 2.0 intègre également un mécanisme de correction de la dérive temporelle, un phénomène qui dégradait les scènes générées sur la durée dans les approches précédentes. Les scènes produites peuvent être exportées en Gaussian Splatting, une technique de rendu rapide basée sur des points lumineux, et intégrées à des simulateurs comme Isaac Sim. L'impact concret de Lyra 2.0 touche plusieurs industries simultanément. Pour les studios de jeu vidéo et les équipes de production 3D, la technologie court-circuite une partie du pipeline traditionnel de modélisation : au lieu de construire manuellement des environnements, on les traverse pendant leur génération automatique. Pour la robotique et l'IA embarquée, les environnements générés deviennent des terrains d'entraînement réalistes, permettant de tester des agents intelligents dans des conditions proches du monde réel sans coûteuses captures physiques. La reconstruction feed-forward, qui transforme une vidéo en structure 3D sans étape manuelle lourde, ouvre la voie à une production de données synthétiques à une échelle difficile à atteindre jusqu'ici. C'est ce double usage, création visuelle et simulation opérationnelle, qui distingue Lyra 2.0 des outils de génération vidéo classiques. La sortie de Lyra 2.0 intervient dans un contexte de compétition intense autour des mondes 3D génératifs. NVIDIA a publié le code source le 15 avril 2026, soit un jour seulement après que World Labs a lancé Spark 2.0, son propre système concurrent. Ce calendrier serré illustre la course que se livrent les grands acteurs de l'IA pour imposer leurs standards dans ce segment émergent. NVIDIA part avec un avantage structurel : son écosystème logiciel, Isaac Sim, Gaussian Splatting, les GPU omniprésents dans les datacenters, lui permet d'intégrer Lyra 2.0 dans des workflows industriels existants dès le départ. Les prochaines étapes attendues concernent l'amélioration de la résolution des scènes générées, la gestion des environnements extérieurs complexes, et l'intégration plus poussée avec les pipelines de simulation robotique où NVIDIA investit massivement depuis plusieurs années.

UELes studios de jeux vidéo et équipes de robotique européens peuvent adopter ce framework open source pour accélérer leur pipeline de création 3D et générer des données d'entraînement synthétiques sans captures physiques coûteuses.

OutilsPaper
1 source
3VentureBeat AI 

Nous avons testé la nouvelle app bureau Claude Code et les 'Routines' : ce que les entreprises doivent savoir

Le 14 avril 2026, Anthropic a lancé deux mises à jour majeures pour Claude Code : une refonte complète de l'application desktop (Mac et Windows) et l'introduction des « Routines » en aperçu de recherche. L'application redessinée s'articule autour d'une nouvelle fonctionnalité centrale appelée « Mission Control » : une barre latérale permettant de gérer toutes les sessions actives et récentes en un seul écran, filtrables par statut, projet ou environnement. En parallèle, les Routines se déclinent en trois catégories : les Routines planifiées (exécution sur un calendrier, comme un cron job sophistiqué), les Routines API (endpoints dédiés avec tokens d'authentification pour déclencher Claude via HTTP depuis des outils comme Datadog), et les Routines Webhook (déclenchées par des événements GitHub, comme des commentaires de pull request ou des échecs CI/CD). Les limites quotidiennes sont fixées à 5 Routines pour les utilisateurs Pro, 15 pour Max, et 25 pour les abonnements Team et Enterprise, avec possibilité d'acheter des quotas supplémentaires. Ces mises à jour marquent un changement de philosophie profond : Anthropic abandonne le paradigme du « copilote » à fil unique pour celui de l'orchestration multi-agents. Un développeur peut désormais piloter simultanément un refactoring dans un dépôt, une correction de bugs dans un second et l'écriture de tests dans un troisième, tout en surveillant l'avancement depuis un seul tableau de bord. La fonctionnalité « Side Chat » (accessible via ⌘ + ;, ou via la commande /btw en terminal) répond à un problème concret du travail agentique : poser une question de clarification sans polluer l'historique de la tâche principale. Surtout, les Routines déplacent l'exécution vers l'infrastructure cloud d'Anthropic, ce qui signifie qu'une tâche critique, comme le tri nocturne de bugs depuis un backlog Linear, peut tourner à 2h du matin sans que l'ordinateur du développeur soit allumé. Ces annonces s'inscrivent dans une tendance de fond qui voit les grands acteurs de l'IA transformer leurs outils de développement en plateformes d'automatisation d'entreprise. Pendant des années, le secteur s'est concentré sur des assistants réactifs intégrés aux IDE ; l'évolution vers des agents autonomes capables d'agir sur plusieurs dépôts en parallèle, et de s'intégrer directement dans les pipelines CI/CD ou les systèmes d'alerte, représente une rupture architecturale. Anthropic doit cependant convaincre les développeurs attachés au terminal, plus léger et mieux intégré aux workflows shell existants, que l'interface graphique apporte une valeur réelle. La bataille pour devenir l'environnement de référence du développeur augmenté est désormais ouverte, avec OpenAI, Google et des acteurs comme Cursor en embuscade.

UELes développeurs et entreprises européens peuvent intégrer Claude Code directement dans leurs pipelines CI/CD et systèmes d'alerte, mais l'exécution des Routines sur l'infrastructure cloud d'Anthropic soulève des questions de conformité RGPD pour les équipes soumises à des contraintes de résidence des données.

OutilsOutil
1 source
4The Verge AI 

Google lance une application Gemini AI sur Mac

Google a lancé une application Gemini dédiée sur Mac, permettant aux utilisateurs d'interagir avec l'assistant IA sans quitter leur flux de travail. Le raccourci clavier Option + Espace fait apparaître une bulle de chat flottante depuis laquelle on peut poser des questions à Gemini ou partager le contenu de la fenêtre active. L'application demande au préalable l'autorisation d'accéder aux informations du système, après quoi l'assistant analyse ce qui est affiché à l'écran pour formuler ses réponses. Cette intégration directe dans l'environnement de bureau représente un changement notable dans la façon dont les assistants IA s'insèrent dans le quotidien des professionnels. Plutôt que d'ouvrir un onglet de navigateur ou de basculer entre applications, l'utilisateur obtient une aide contextuelle instantanée, ancrée dans ce qu'il est en train de faire. Pour les développeurs, rédacteurs ou analystes qui jonglent avec plusieurs fenêtres, ce gain de fluidité peut se traduire concrètement en gain de temps. Cette approche rappelle directement la nouvelle version de Spotlight chez Apple, qui permet désormais d'effectuer des actions sur l'appareil via une interface similaire. Google entre ainsi dans une compétition directe avec Apple Intelligence sur le territoire macOS, terrain historiquement dominé par Apple. Alors que Microsoft intègre Copilot dans Windows depuis 2023, la bataille des assistants IA natifs sur les systèmes d'exploitation grand public s'intensifie, chaque acteur cherchant à devenir le point d'entrée privilégié de l'utilisateur.