Aller au contenu principal
NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes
OutilsMarkTechPost6sem

NVIDIA AI publie 'OpenShell' en open source : un environnement d'exécution sécurisé pour les agents IA autonomes

Résumé IASource uniqueImpact UE
Source originale ↗·

NVIDIA franchit une étape importante dans la sécurisation des agents IA autonomes en publiant OpenShell en open source sous licence Apache 2.0. Cet environnement d'exécution dédié répond à un problème concret : les agents capables d'exécuter du code et d'interagir avec des systèmes fichiers ou des endpoints réseau représentent une surface d'attaque bien plus large que les applications LLM classiques, limitées aux échanges textuels.

L'enjeu est de taille pour l'industrie. Jusqu'ici, la sécurité des agents autonomes reposait principalement sur l'alignement interne du modèle — une approche jugée insuffisante face à des risques d'exécution de commandes non souhaitées ou d'accès non autorisé à des données sensibles. OpenShell introduit une couche de sécurité externe et explicite, indépendante du comportement du modèle, ce qui représente un changement de paradigme pour les équipes de développement.

Techniquement, la solution s'articule autour de trois piliers. D'abord, un sandbox à isolation kernel qui confine tout code généré — scripts Python, commandes Bash — dans un espace restreint. Ensuite, un moteur de politiques granulaire permettant un contrôle par binaire (git, curl, python), par endpoint réseau et par méthode d'API, avec un journal d'audit complet de chaque action. Enfin, un mécanisme de routage d'inférence privé qui intercepte le trafic modèle pour éviter les fuites de données vers des fournisseurs cloud externes. Point clé : OpenShell est agent-agnostique — il fonctionne sans modification avec Claude Code, Codex, LangChain ou tout autre framework existant, via une simple CLI et une interface TUI pour le monitoring en temps réel.

La prise en charge d'exécution distante (openshell sandbox create --remote user@host) ouvre également la voie à des déploiements sur clusters GPU haute performance, ce qui positionne NVIDIA non seulement comme fournisseur de matériel, mais comme acteur central de l'infrastructure logicielle pour agents IA en production.

Impact France/UE

OpenShell peut être adopté par les développeurs et entreprises européens pour sécuriser leurs agents IA autonomes, en répondant aux exigences de traçabilité et de contrôle imposées par l'AI Act européen.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Comment les agents IA autonomes deviennent sécurisés par conception grâce à NVIDIA OpenShell
1NVIDIA AI Blog 

Comment les agents IA autonomes deviennent sécurisés par conception grâce à NVIDIA OpenShell

NVIDIA lance OpenShell, un runtime open source intégré à l'NVIDIA Agent Toolkit, conçu pour exécuter des agents autonomes dans des sandboxes isolées avec des politiques de sécurité appliquées au niveau système — hors de portée des agents eux-mêmes. Cette architecture empêche les agents de contourner les contraintes, de fuiter des identifiants ou des données sensibles, même en cas de compromission. NVIDIA collabore avec Cisco, CrowdStrike, Google Cloud, Microsoft Security et TrendAI pour aligner la gestion des politiques runtime à l'échelle des entreprises, tandis que NemoClaw fournit une stack de référence open source combinant OpenShell et les modèles Nemotron pour déployer des assistants IA personnels auto-évolutifs.

OutilsActu
1 source
OpenAI étend son API Responses pour en faire une base pour les agents autonomes
2InfoQ AI 

OpenAI étend son API Responses pour en faire une base pour les agents autonomes

OpenAI a annoncé une extension majeure de son API Responses, transformant cette interface en fondation dédiée à la création d'agents autonomes. Parmi les nouvelles fonctionnalités dévoilées figurent un outil shell intégré, une boucle d'exécution agentique native, un espace de travail conteneurisé hébergé par OpenAI, un mécanisme de compaction du contexte pour gérer les longues sessions, et un système de compétences réutilisables permettant de composer des agents modulaires. Cette mise à jour positionne explicitement l'API Responses comme le socle recommandé pour les workflows multi-étapes et les agents capables d'agir de manière prolongée sans intervention humaine. Pour les développeurs, ces ajouts réduisent considérablement la complexité de construire des agents fiables. Auparavant, gérer une boucle d'exécution, maintenir un contexte cohérent sur de longues chaînes d'actions ou orchestrer des outils système nécessitait une infrastructure personnalisée lourde. En intégrant ces mécanismes directement dans l'API, OpenAI abaisse la barrière d'entrée et permet à des équipes réduites de déployer des agents capables d'accomplir des tâches complexes — automatisation de code, analyse de données, interactions avec des systèmes externes — sans réinventer l'infrastructure sous-jacente. Cette annonce s'inscrit dans une course intense entre les grands acteurs de l'IA pour capter l'écosystème développeur autour de l'agentique. Anthropic pousse son SDK Claude Agent, Google déploie ses propres outils d'orchestration, et des frameworks comme LangChain ou AutoGen tentent de rester pertinents face à ces offres natives. En intégrant l'outillage directement dans son API, OpenAI cherche à fidéliser les développeurs dans son écosystème et à standardiser sa vision de ce que doit être un agent — une pression supplémentaire sur les concurrents pour accélérer leurs propres offres.

UELes développeurs européens peuvent adopter directement ces nouvelles capacités agentiques natives via l'API Responses d'OpenAI, réduisant la dépendance aux frameworks tiers comme LangChain ou AutoGen.

OutilsOutil
1 source
Agent-Infra publie AIO Sandbox : un environnement tout-en-un pour agents IA avec navigateur, shell, système de fichiers partagé et MCP
3MarkTechPost 

Agent-Infra publie AIO Sandbox : un environnement tout-en-un pour agents IA avec navigateur, shell, système de fichiers partagé et MCP

Agent-Infra a publié AIO Sandbox, un environnement d'exécution open-source conçu pour les agents IA autonomes. Contrairement aux approches classiques qui nécessitent plusieurs conteneurs distincts — un pour le navigateur, un pour l'interpréteur de code, un pour le shell —, cette solution intègre dans un seul environnement Docker un navigateur Chromium pilotable via le protocole CDP (avec support Playwright), des runtimes Python et Node.js préconfigurés, un terminal Bash, un système de fichiers partagé, ainsi que des instances VSCode Server et Jupyter Notebook pour le débogage. Le projet est disponible sur GitHub et inclut des exemples de déploiement Kubernetes avec gestion des ressources CPU et mémoire. Ce qui rend cette infrastructure concrètement utile, c'est son système de fichiers unifié : un fichier téléchargé via le navigateur est immédiatement accessible au shell et à l'interpréteur Python, sans transfert manuel ni synchronisation entre services. Pour un agent qui doit, par exemple, récupérer un CSV depuis un portail web puis lancer un script de nettoyage de données, cela élimine toute la plomberie intermédiaire. Le projet intègre aussi nativement le Model Context Protocol (MCP), standard ouvert qui normalise la communication entre les LLMs et leurs outils : quatre serveurs MCP sont préconfigurés (navigateur, fichiers, shell, et Markitdown pour convertir des documents en Markdown optimisé pour les modèles). Cette standardisation permet aux développeurs d'exposer les capacités du sandbox à n'importe quel LLM compatible MCP via une API et un SDK. Le lancement d'AIO Sandbox illustre un glissement dans les défis du développement agentique : si les LLMs comme GPT-4o ou Claude sont désormais capables de planifier et générer du code complexe, c'est l'environnement d'exécution — isolé, fiable, outillé — qui devient le vrai goulot d'étranglement. Des acteurs comme Anthropic (avec son computer use), OpenAI (avec ses outils d'exécution de code), ou encore E2B proposent des solutions similaires, mais Agent-Infra parie sur une approche tout-en-un open-source, pensée pour le déploiement en entreprise à haute densité. La compatibilité Kubernetes et l'isolation par conteneur permettent de faire tourner de nombreux agents en parallèle sans qu'ils interfèrent avec le système hôte. Dans un écosystème où les frameworks agentiques comme LangChain, AutoGen ou CrewAI se multiplient, disposer d'une couche d'exécution standardisée et robuste devient un prérequis pour passer des prototypes aux déploiements en production.

OutilsOpinion
1 source
LangChain lance Deep Agents : un environnement d'exécution structuré pour la planification, la mémoire et l'isolation du contexte dans les agents IA multi-étapes
4MarkTechPost 

LangChain lance Deep Agents : un environnement d'exécution structuré pour la planification, la mémoire et l'isolation du contexte dans les agents IA multi-étapes

LangChain a déployé Deep Agents, un ensemble de composants structurés pour la planification, la gestion de la mémoire et l'isolement du contexte dans les agents AI multi-étapes. Contrairement à d'autres systèmes, Deep Agents ne présente pas de nouveau modèle de raisonnement ni un nouveau runtime distinct de LangGraph, mais intègre des paramètres par défaut et outils intégrés autour du boucle standard d'appel d'outils. Les caractéristiques principales incluent une planification via write_todos, des outils de gestion de fichiers, un accès à la shell sécurisé, un outil de tâche pour lancer des sous-agents et des fonctionnalités de gestion contextuelle comme la résumé automatique et le stockage de grands résultats dans des fichiers. Cette approche vise à simplifier le développement d'agents capables de planifier, gérer de grandes quantités de contexte, déléguer des tâches et conserver des informations sur plusieurs conversations.

OutilsOutil
1 source