Aller au contenu principal
Nemotron Labs : les enjeux des agents OpenClaw pour toutes les entreprises
OutilsNVIDIA AI Blog1h

Nemotron Labs : les enjeux des agents OpenClaw pour toutes les entreprises

Résumé IASource uniqueImpact UE
Source originale ↗·

En janvier 2026, le projet open source OpenClaw a franchi la barre des 100 000 étoiles sur GitHub, enregistrant plus de 2 millions de visiteurs en une seule semaine. En mars, il atteignait 250 000 étoiles, dépassant React pour devenir le projet le plus étoilé de l'histoire de GitHub en seulement 60 jours. Créé par Peter Steinberger, OpenClaw est un assistant IA autonome et persistant conçu pour fonctionner localement ou sur des serveurs privés, sans dépendre d'APIs ou d'infrastructures cloud tierces. Sa particularité réside dans son mode de fonctionnement : contrairement aux agents classiques qui s'exécutent à la demande et s'arrêtent, les "claws" tournent en continu en arrière-plan, consultent régulièrement une liste de tâches, agissent de façon autonome et n'alertent l'humain que lorsqu'une décision s'impose.

Cette popularité fulgurante s'accompagne d'enjeux concrets pour les entreprises et les développeurs. Les chercheurs en sécurité ont rapidement soulevé des questions sur la gestion des données sensibles, l'authentification et les mises à jour de modèles dans des déploiements auto-hébergés. Des risques supplémentaires ont été identifiés, liés aux instances serveur non patchées ou aux contributions malveillantes dans les forks communautaires. C'est dans ce contexte que NVIDIA est entré en jeu, collaborant avec Steinberger pour renforcer la sécurité du projet : isolation des modèles, contrôle des accès aux données locales et vérification des contributions communautaires. NVIDIA a également lancé NemoClaw, une implémentation de référence qui installe en une seule commande OpenClaw, le runtime sécurisé NVIDIA OpenShell et les modèles ouverts Nemotron, avec des paramètres durcis pour le réseau, l'accès aux données et la sécurité globale.

La montée en puissance d'OpenClaw illustre une tendance de fond dans l'évolution de l'IA. Après les phases prédictive, générative et de raisonnement, l'IA autonome constitue une quatrième vague qui s'installe à un rythme encore plus soutenu que les précédentes. Chaque phase a multiplié les besoins en inférence : l'IA générative a surpassé le prédictif, l'IA de raisonnement a encore multiplié les besoins par 100, et les agents autonomes à longue durée d'exécution pourraient les multiplier par 1 000 supplémentaires. Cette explosion de la demande de calcul ouvre des perspectives industrielles considérables : des chercheurs capables de travailler sur un problème toute la nuit sans supervision, des systèmes itérant sur des milliers de configurations de conception, ou des outils de monitoring capables de détecter et escalader des anomalies en temps réel. Le déploiement sécurisé de ces agents en entreprise reste cependant un chantier ouvert, que NemoClaw ambitionne de baliser.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle
1VentureBeat AI 

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle

La startup Kilo a annoncé le lancement de KiloClaw for Organizations et KiloClaw Chat, une suite d'outils destinée à encadrer l'usage des agents IA autonomes au sein des grandes entreprises. Cette annonce intervient un mois après la mise en disponibilité générale de son produit individuel OpenClaw, qui a déjà séduit plus de 25 000 utilisateurs actifs. Le benchmark propriétaire de Kilo, PinchBench, a quant à lui enregistré plus de 250 000 interactions et a été cité publiquement par Jensen Huang, PDG de Nvidia, lors de sa keynote à la conférence GTC 2026 à San Jose. Co-fondée par Scott Breitenother et Emilie Schario, la société propose un environnement de développement IA multi-modèles hébergé dans le cloud, conçu pour être portable et accessible. Le problème que KiloClaw for Organizations cherche à résoudre est celui du « shadow AI » — ou BYOAI (Bring Your Own AI) : des développeurs et travailleurs du savoir qui déploient des agents IA autonomes sur des infrastructures personnelles, hors du contrôle de leur employeur, pour gérer agendas, dépôts de code ou flux de travail professionnels. Des directeurs IA de sous-traitants gouvernementaux ont confié à Kilo avoir découvert leurs équipes faisant tourner des agents OpenClaw sur des serveurs VPS non répertoriés. « Nous ne voyons rien : pas de journaux d'audit, pas de gestion des identifiants, aucune idée de quelles données touchent quelle API », aurait déclaré l'un d'eux. Face à cette opacité, certaines organisations ont répondu par des interdictions totales des agents autonomes, faute de stratégie claire. Le nouveau produit permet à une entreprise d'acheter un package organisationnel et d'en distribuer l'accès à chaque membre de l'équipe, dans un environnement géré et auditable. Ce lancement s'inscrit dans une dynamique sectorielle plus large. Des acteurs majeurs comme Nvidia (NemoClaw), Cisco (DefenseClaw), Palo Alto Networks et CrowdStrike ont tous annoncé des déclinaisons entreprise d'OpenClaw, avec des mécanismes de gouvernance et de sécurité. Pourtant, selon Anand Kashyap, PDG de la société de sécurité des données Fortanix, l'adoption en entreprise reste faible : les organisations exigent un contrôle IT centralisé, un comportement prévisible et une conformité stricte des données — trois paramètres que les plateformes agentiques autonomes mettent à rude épreuve. Kashyap souligne que les solutions de périmètre traditionnelles ne réduisent pas la surface d'attaque fondamentale. À terme, le marché devrait converger vers des plateformes agentiques avec des agents pré-packagés, des contrôles centralisés et des accès aux données intégrés directement dans les LLM — des technologies comme le Confidential Computing étant appelées à jouer un rôle clé dans cette transition.

UELes entreprises européennes sont confrontées aux mêmes enjeux de shadow AI, aggravés par les obligations de traçabilité et de contrôle imposées par l'AI Act pour les systèmes d'IA à risque déployés en contexte professionnel.

OutilsOutil
1 source
2VentureBeat AI 

Les entreprises IA à base d'agents : concevoir pour des performances mesurables

Les agents d'intelligence artificielle semi-autonomes capables de gérer des tâches métier complexes en temps réel ne sont plus une promesse lointaine, c'est désormais une réalité opérationnelle pour certaines grandes entreprises. EdgeVerve, filiale d'Infosys spécialisée dans l'automatisation intelligente, a récemment publié un cadre de conception pour déployer ces agents à l'échelle industrielle. L'entreprise cite ses propres déploiements en production : dans un environnement financier réel piloté par un directeur financier, sept agents interconnectés ont généré en un an une amélioration de plus de 3 % des flux de trésorerie mensuels, un gain de productivité de 50 % sur les workflows concernés, un onboarding 90 % plus rapide, et un impact total de 32 millions de dollars sur la trésorerie. En maintenance immobilière, des résultats similaires ont été obtenus grâce à des agents spécialisés dans la coordination des interventions. Ces chiffres illustrent ce qui distingue un pilote réussi d'un projet abandonné : l'ancrage dans des objectifs métier mesurables dès le départ. La méthode préconisée consiste à partir des KPI organisationnels, délai de recouvrement (DSO), taux de conformité, temps moyen de résolution (MTTR), satisfaction client (NPS), pour définir les objectifs des agents, puis seulement choisir les workflows à automatiser. Les "zones grises opérationnelles", ces espaces entre les applications où subsistent encore des validations manuelles, des réconciliations et des transferts humains, représentent le prochain gisement de valeur. C'est là que les agents peuvent éliminer les frictions systémiques sans remplacer intégralement des processus formalisés. Le cadre repose sur quatre piliers : autonomie calibrée selon le niveau de risque (de la simple suggestion à l'exécution avec rollback automatique), gouvernance intégrée dès la conception avec des garde-fous stricts sur les données personnelles et réglementaires, observabilité continue via des évaluations et métriques en temps réel, et flexibilité d'intégration allant bien au-delà des seules API classiques, en incluant les flux événementiels, les connecteurs RAG pour bases documentaires, et des fallbacks RPA là où les API n'existent pas. Le risque central identifié est celui des agents "hallucinant" des actions non vérifiables par l'entreprise, d'où l'insistance sur l'idempotence, les mécanismes de retry et les schémas d'outils standardisés. Dans un contexte où de nombreuses entreprises peinent encore à sortir leurs agents du stade expérimental, ce retour d'expérience chiffré positionne EdgeVerve comme un acteur cherchant à normaliser les déploiements agentiques en environnement critique.

OutilsOutil
1 source
OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA
3Le Big Data 

OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA

OpenClaw, l'agent IA local et open source lancé fin 2025, a rapidement dépassé Linux et React sur GitHub pour atteindre plus de 330 000 étoiles, s'imposant comme l'un des projets les plus suivis de la plateforme. Contrairement aux chatbots classiques, OpenClaw agit directement sur la machine de l'utilisateur de manière autonome. Pour étendre ses capacités, la communauté a développé une marketplace d'extensions appelée ClawHub, proposant des milliers de modules baptisés Skills. Parmi les plus plébiscités : le Skill Obsidian, qui synchronise l'agent avec une base de notes locale en Markdown ; le module RAG (Retrieval-Augmented Generation) pour interroger des documents PDF et archives internes sans envoyer de données vers des serveurs externes ; le Skill GOG pour connecter l'agent à Gmail, Google Calendar et Drive via OAuth ; et enfin le Skill GitHub, qui s'appuie sur le CLI officiel gh pour gérer le cycle de vie complet d'un dépôt de code. Ce qui distingue OpenClaw des assistants IA classiques, c'est précisément cette capacité à passer de la consultation à l'exécution concrète. Un utilisateur peut demander à l'agent de trier sa boîte mail, rédiger une note structurée dans Obsidian, ou créer une pull request sur GitHub — le tout sans ouvrir un seul onglet de navigateur. Le module RAG est particulièrement stratégique pour les entreprises : il permet d'interroger des gigaoctets de documentation interne sensible en restant entièrement en local, éliminant le risque de fuite de données vers des API tierces. Pour les développeurs, le Skill GitHub transforme l'agent en ingénieur DevOps autonome capable de gérer des workflows complexes sans supervision constante. OpenClaw s'inscrit dans une tendance de fond : la montée des agents IA locaux, souverains et extensibles, portée par la communauté open source. Son ascension fulgurante rappelle celle de projets comme Docker ou Kubernetes en leur temps — des outils qui ont redéfini les pratiques professionnelles en quelques mois. La marketplace ClawHub joue un rôle central dans cet écosystème, en reproduisant le modèle de distribution des extensions de VS Code ou des plugins npm, mais appliqué à l'automatisation par IA. Les prochains enjeux tournent autour de la sécurité des Skills tiers, de la standardisation des interfaces entre modules, et de l'émergence d'agents capables de chaîner plusieurs Skills de manière fiable sur des tâches longues — un défi technique que la communauté commence à peine à adresser.

UELe module RAG local d'OpenClaw répond aux exigences de souveraineté des données imposées par le RGPD, permettant aux entreprises européennes de traiter des documents internes sensibles sans transférer de données vers des serveurs tiers.

OutilsOutil
1 source
Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées
4AI News 

Pourquoi des entreprises comme Apple misent sur des agents IA aux capacités bridées

Apple, Qualcomm et d'autres acteurs majeurs de l'industrie technologique développent une nouvelle génération d'assistants IA capables d'agir de manière autonome au sein des applications, réserver des services, publier du contenu, naviguer dans des flux complexes. Lors d'une phase bêta privée, un de ces systèmes agentiques a ainsi parcouru l'intégralité d'un tunnel de paiement dans une application avant de s'arrêter net à l'écran de confirmation, attendant le feu vert de l'utilisateur. Ces agents ne sont pas conçus pour agir librement : ils intègrent des points de validation obligatoires, notamment pour toute action sensible liée aux paiements, aux modifications de compte ou aux publications. Les fournisseurs de services de paiement sont déjà en discussion pour intégrer leurs systèmes d'authentification sécurisée directement dans ces flux agentiques, bien que ces dispositifs soient encore en cours de développement. Ce modèle dit "human-in-the-loop", où l'agent prépare l'action mais laisse la décision finale à l'humain, répond à un enjeu concret : à mesure que l'IA gagne en capacité d'action, les risques d'erreur se transforment en risques financiers ou de fuite de données. Pour les utilisateurs grand public, une réservation mal déclenchée ou une transaction non souhaitée peut avoir des conséquences immédiates. Les entreprises tentent donc de limiter le périmètre d'action de ces agents : plutôt que de leur donner un accès total aux applications et aux données, elles définissent précisément quels services l'IA peut toucher, dans quelles conditions, et avec quels droits. Sur l'appareil, le traitement local des données vise également à éviter que des informations sensibles soient transmises vers des serveurs externes. Le débat sur la gouvernance des IA agentiques s'était jusqu'ici concentré sur les usages entreprise, cybersécurité, automatisation à grande échelle, conformité réglementaire. Le déploiement grand public introduit une dimension différente : des millions d'utilisateurs, souvent peu familiers des risques, interagissant avec des systèmes capables d'engager des dépenses ou de modifier des comptes en quelques secondes. Apple, dont les travaux de recherche ont exploré des mécanismes de pause avant toute action non explicitement demandée, semble vouloir établir un standard : des environnements contrôlés où l'autonomie de l'agent est réelle mais bornée. Dans le contexte du règlement européen sur l'IA, qui entre progressivement en application en 2026, cette architecture "agentique avec garde-fous" pourrait s'imposer comme la norme par défaut pour tout acteur souhaitant déployer ces technologies auprès du grand public.

UEL'architecture 'agentique avec garde-fous' pourrait s'imposer comme norme de conformité sous le règlement européen sur l'IA, qui entre progressivement en application en 2026, imposant des contraintes concrètes aux acteurs déployant des agents IA auprès du grand public en Europe.

OutilsOpinion
1 source