Aller au contenu principal
Hermes permet aux agents IA de s'améliorer eux-mêmes, propulsés par les PC NVIDIA RTX et le DGX Spark
OutilsNVIDIA AI Blog47min

Hermes permet aux agents IA de s'améliorer eux-mêmes, propulsés par les PC NVIDIA RTX et le DGX Spark

Résumé IASource uniqueImpact UE
Source originale ↗·

Hermes Agent, le nouveau framework d'agents IA développé par Nous Research, a franchi les 140 000 étoiles sur GitHub en moins de trois mois et s'est imposé la semaine dernière comme l'agent le plus utilisé au monde selon OpenRouter. Conçu pour fonctionner en local et en continu, il est optimisé pour tourner sur les GPU NVIDIA RTX, les stations de travail RTX PRO et les machines DGX Spark. Sa particularité principale est sa capacité d'auto-amélioration : à chaque tâche complexe ou retour utilisateur, Hermes enregistre ses apprentissages sous forme de compétences réutilisables, ce qui lui permet de s'améliorer au fil du temps sans intervention humaine. Il intègre également une architecture de sous-agents isolés, chacun dédié à une sous-tâche précise, ce qui réduit la confusion, minimise la taille des fenêtres de contexte nécessaires et rend le système plus fiable sur des modèles de 30 milliards de paramètres. Nous Research teste et valide chaque outil embarqué, ce qui distingue Hermes de la plupart des frameworks concurrents qui exigent un débogage constant. En parallèle, Alibaba a lancé la série Qwen 3.6, dont les modèles de 27 et 35 milliards de paramètres surpassent les versions précédentes de 120 et 400 milliards de paramètres, tout en nécessitant respectivement environ 20 Go de mémoire au lieu de 70 Go ou plus.

L'enjeu est considérable : pour la première fois, des agents IA capables de s'auto-améliorer, de planifier des tâches multi-étapes et d'agir de façon autonome en continu deviennent accessibles sur du matériel grand public ou de gamme professionnelle. Un développeur ou une PME peut désormais faire tourner un agent équivalent à ce qui nécessitait autrefois un datacenter, grâce à des GPU comme le RTX 5090 ou une machine compacte comme le DGX Spark, qui offre 128 Go de mémoire unifiée et 1 pétaflop de performance IA. Les Tensor Cores NVIDIA réduisent le temps d'inférence de minutes à secondes, rendant les workflows autonomes viables à l'échelle d'une journée de travail complète.

Cette convergence entre frameworks open source matures et modèles locaux ultra-compressés marque une rupture dans la démocratisation de l'IA agentique. Jusqu'ici, les agents performants dependaient de l'API d'OpenAI ou d'Anthropic, avec les coûts et les questions de confidentialité que cela implique. La montée en puissance de modèles open weight comme Qwen 3.6, combinée à des frameworks comme Hermes qui rivalisent avec les solutions propriétaires sur des benchmarks identiques, repositionne le matériel local comme infrastructure stratégique. NVIDIA profite directement de cette tendance en poussant le DGX Spark comme poste de travail dédié à l'IA agentique permanente, un segment encore embryonnaire mais en croissance rapide à mesure que les entreprises cherchent à internaliser leurs pipelines d'IA.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

NVIDIA et ServiceNow s'associent pour développer des agents IA autonomes pour les entreprises
1NVIDIA AI Blog 

NVIDIA et ServiceNow s'associent pour développer des agents IA autonomes pour les entreprises

Lors de la conférence ServiceNow Knowledge 2026, Jensen Huang, fondateur et PDG de NVIDIA, est monté sur scène aux côtés de Bill McDermott, PDG de ServiceNow, pour annoncer l'extension de leur collaboration dans le domaine de l'intelligence artificielle en entreprise. Au coeur de cette annonce figure Project Arc, un agent autonome de bureau conçu pour fonctionner en continu et évoluer de façon autonome, destiné aux travailleurs du savoir comme les développeurs, les équipes IT et les administrateurs systèmes. Contrairement aux agents IA classiques, Project Arc s'intègre nativement à la plateforme ServiceNow via ServiceNow Action Fabric, et s'appuie sur OpenShell, un moteur d'exécution open source développé par NVIDIA permettant de déployer des agents dans des environnements sandbox gouvernés par des politiques de sécurité. L'agent peut accéder aux systèmes de fichiers locaux, aux terminaux et aux applications installées sur un poste de travail, et exécuter des tâches complexes en plusieurs étapes que l'automatisation traditionnelle ne peut pas prendre en charge. Ce partenariat marque un tournant dans la manière dont les grandes entreprises envisagent l'IA. Jusqu'ici cantonnée à la génération de texte ou au raisonnement assisté, l'intelligence artificielle passe désormais à l'action de façon autonome, durable et auditable. Pour les organisations, l'enjeu est considérable : déployer des agents capables d'agir sur de vraies infrastructures sans exposer des données sensibles ni contourner les règles de conformité. Project Arc répond à cette exigence en combinant l'AI Control Tower de ServiceNow, qui assure la gouvernance et la traçabilité de chaque action, avec le runtime sécurisé OpenShell de NVIDIA, qui définit précisément ce qu'un agent peut voir, quels outils il peut utiliser et comment chaque action est isolée du reste du système. L'annonce s'inscrit dans une tendance de fond : après des années d'investissements massifs dans les grands modèles de langage, les acteurs technologiques cherchent à concrétiser l'IA agentique dans des environnements professionnels réels. NVIDIA et ServiceNow misent sur un écosystème ouvert, fondé sur les modèles Nemotron de NVIDIA et des compétences spécialisées développées pour les ServiceNow AI Specialists, pour permettre aux entreprises d'adapter ces systèmes à leurs propres données et processus métier. Les deux sociétés co-développent également NOWAI-Bench, une suite de benchmarks ouverte pour évaluer les performances des agents IA en entreprise, intégrée à la bibliothèque NVIDIA NeMo Gym. L'environnement EnterpriseOps-Gym, l'un des plus exigeants du secteur, fait partie de cet effort pour établir des standards communs dans une course à l'agentique qui mobilise désormais tous les grands acteurs du cloud et de l'infrastructure.

UELes entreprises européennes pourraient déployer Project Arc en s'appuyant sur ses mécanismes de gouvernance et de traçabilité pour répondre aux exigences d'auditabilité imposées par l'AI Act.

OutilsOutil
1 source
NVIDIA et SAP renforcent la fiabilité des agents spécialisés
2NVIDIA AI Blog 

NVIDIA et SAP renforcent la fiabilité des agents spécialisés

NVIDIA et SAP ont annoncé lors de la conférence SAP Sapphire un renforcement significatif de leur collaboration autour des agents IA autonomes en entreprise. Jensen Huang, fondateur et PDG de NVIDIA, est intervenu par vidéo lors du discours d'ouverture de Christian Klein, PDG de SAP. Le coeur de l'annonce : SAP intègre NVIDIA OpenShell, un runtime open source conçu pour déployer des agents IA autonomes de manière sécurisée, directement dans sa SAP Business AI Platform. Les ingénieurs SAP participent désormais au développement de ce projet open source aux côtés de ceux de NVIDIA. OpenShell fournit des environnements d'exécution isolés, applique des politiques au niveau du système de fichiers et du réseau, et assure une containérisation au niveau de l'infrastructure pour limiter les dégâts en cas de défaillance de la logique d'un agent. Il devient ainsi la couche de sécurité d'exécution pour l'ensemble des agents SAP, y compris ceux créés dans Joule Studio, l'environnement de SAP dédié à la construction et gestion d'agents d'entreprise bout en bout. Ce partenariat répond à un défi concret : quand un agent IA peut accéder à des systèmes critiques, traverser les frontières applicatives et agir sans validation humaine à chaque étape, les entreprises ont besoin de garanties solides avant de le déployer en production. La différence entre un assistant IA et un agent autonome, c'est précisément cette capacité à agir sans supervision constante, ce qui exige des contrôles stricts sur ce que l'agent peut voir, faire, et tracer. Pour des domaines comme la finance, les achats, la supply chain ou la fabrication, où SAP pilote les opérations de milliers d'entreprises mondiales, les enjeux de conformité et de gouvernance sont particulièrement élevés. OpenShell répond à la question « cette action peut-elle s'exécuter en sécurité ? », tandis que la couche de contrôle de Joule Studio répond à « cette action doit-elle avoir lieu du tout ? » SAP occupe une position stratégique dans l'écosystème IA d'entreprise : ses systèmes hébergent les données de référence des processus financiers, logistiques et opérationnels de nombreuses grandes organisations mondiales. NVIDIA est lui-même client SAP pour ses propres opérations financières et supply chain, ce qui donne aux deux entreprises une compréhension commune des exigences de gouvernance en conditions réelles. Pour accélérer le développement d'agents personnalisés, NVIDIA NemoClaw, un plan de référence pour construire et déployer des agents autonomes, sera disponible directement dans Joule Studio, offrant aux équipes de développement un chemin structuré du prototype au déploiement sécurisé en production. Cette collaboration illustre une tendance de fond dans l'industrie : la course à l'adoption des agents IA autonomes passe désormais par la confiance, et c'est au niveau de la couche applicative que se joue l'essentiel de la bataille.

UESAP, entreprise européenne leader des ERP, intègre des couches de sécurité pour agents IA autonomes dans sa plateforme Business AI, ce qui concerne directement les grandes organisations françaises et européennes utilisant SAP pour leurs processus financiers et opérationnels.

OutilsActu
1 source
Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir
3Le Big Data 

Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir

Mozilla a lancé en mars 2026 un projet open source baptisé cq, conçu pour créer une mémoire collective partagée entre agents IA. Inspiré du modèle de Stack Overflow, cq permet à chaque agent, avant de traiter un problème, d'interroger un espace commun appelé « cq commons » pour vérifier si une solution existe déjà. Les connaissances y sont stockées sous forme de « knowledge units » — des blocs décrivant un problème, sa solution et son contexte technique. Un système de confiance dynamique complète le dispositif : plus une solution est utilisée avec succès par différents agents, plus sa crédibilité augmente. Un proof of concept est d'ores et déjà disponible, avec des plugins pour Claude Code et OpenCode. L'enjeu dépasse le simple gain d'efficacité opérationnelle. Aujourd'hui, des millions d'agents IA résolvent les mêmes problèmes de manière indépendante, en consommant à chaque fois des tokens — ce qui se traduit par des coûts financiers et énergétiques significatifs. En mutualisant les solutions, cq pourrait réduire ces redondances à grande échelle pour les entreprises qui déploient des agents en continu. Plus profondément, le projet introduit un déplacement potentiel de la valeur dans l'écosystème IA : jusqu'ici, la puissance brute des modèles constituait l'avantage concurrentiel principal ; avec des systèmes comme cq, c'est l'accès à une base de connaissances partagée, fiable et enrichie en permanence qui pourrait devenir déterminant. Ce projet s'inscrit dans un contexte révélateur : le déclin de Stack Overflow, longtemps référence du partage de savoir technique. La plateforme est passée de 200 000 questions mensuelles à son apogée en 2014 à seulement 3 862 en décembre 2025, retombant à son niveau de lancement. Les développeurs interrogent désormais directement des IA, qui produisent des réponses instantanées mais éphémères — sans mémoire collective, sans capitalisation. Chaque erreur peut être résolue des milliers de fois sans jamais être retenue. Mozilla tente précisément de combler ce vide structurel en transposant la logique communautaire de Stack Overflow au monde des agents autonomes. Si cq parvient à s'imposer comme standard, il pourrait recomposer la manière dont l'intelligence artificielle apprend et progresse — non plus par modèle isolé, mais par accumulation collective d'expériences validées.

UELes entreprises françaises et européennes déployant des agents IA en continu pourraient réduire leurs coûts en tokens grâce à cette mutualisation open source, mais aucun impact réglementaire ou institutionnel direct.

OutilsOutil
1 source
Anthropic introduit le "dreaming", un système permettant aux agents IA d'apprendre de leurs erreurs
4VentureBeat AI 

Anthropic introduit le "dreaming", un système permettant aux agents IA d'apprendre de leurs erreurs

Anthropic a présenté mardi une série de mises à jour majeures pour sa plateforme Claude Managed Agents lors de sa deuxième conférence annuelle Code with Claude, à San Francisco. La nouveauté phare s'appelle le « dreaming » : un mécanisme qui permet aux agents IA de passer en revue leurs sessions passées, d'en extraire des tendances récurrentes et de générer des notes structurées appelées « playbooks », afin de s'améliorer au fil du temps. En parallèle, deux fonctionnalités jusqu'ici expérimentales passent en bêta publique : « outcomes », qui mesure l'efficacité des agents sur des tâches concrètes, et l'orchestration multi-agents, permettant de faire travailler plusieurs instances de Claude simultanément. Les premiers résultats sont frappants : la société d'IA juridique Harvey a multiplié par six son taux de complétion de tâches après avoir intégré le dreaming ; Wisedocs, spécialisée dans la revue de documents médicaux, a réduit ses délais de traitement de 50 % grâce à outcomes ; et Netflix traite désormais les journaux de centaines de builds en parallèle via l'orchestration multi-agents. Ces annonces s'inscrivent dans un contexte de croissance exponentielle pour Anthropic. Lors d'une discussion à la conférence, le PDG Dario Amodei a révélé que la société avait enregistré au premier trimestre 2026 une croissance annualisée de 80x en revenus et en volume d'utilisation, soit huit fois supérieure aux projections internes qui tablaient sur une multiplication par dix. Le volume d'appels à l'API Claude a progressé de près de 70x en glissement annuel, et les développeurs utilisant Claude Code y consacrent en moyenne vingt heures par semaine. « Nous avions planifié pour un monde à 10x de croissance par an, et nous avons vu 80x », a déclaré Amodei, expliquant ainsi les tensions récentes sur les capacités de calcul de l'entreprise. Le dreaming se distingue volontairement des systèmes de mémoire conventionnels qu'Anthropic avait déjà lancés plus tôt cette année. Il ne modifie pas les poids du modèle sous-jacent et n'effectue aucun réentraînement : il s'agit d'un processus planifié qui analyse les historiques de sessions, identifie les erreurs récurrentes et les méthodes convergentes entre plusieurs agents, puis consigne ces enseignements sous forme de texte lisible par des humains. Alex Albert, responsable du product management recherche chez Anthropic, compare ce mécanisme à la manière dont un professionnel documente une procédure après l'avoir itérée en pratique, sauf que c'est le modèle lui-même qui effectue cette capitalisation. Toutes les mémoires produites restent inspectables et auditables, ce qui répond directement aux exigences de traçabilité des entreprises souhaitant déployer des agents IA en environnement de production.

💬 Le nom est gadget, mais le mécanisme est sérieux. Ce que fait le "dreaming", c'est transformer les erreurs d'un agent en documentation structurée, inspectable, qu'une équipe peut vérifier avant de le laisser tourner en prod, et c'est exactement le truc qui manquait pour convaincre les DSI frileux. Harvey à 6x de taux de complétion, c'est le genre de chiffre qui ouvre des budgets.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour