Aller au contenu principal
OutilsAI News2sem

L'Agents SDK d'OpenAI renforce la gouvernance avec l'exécution en sandbox

Résumé IASources croisées · 3Impact UE
Source originale ↗·
Egalement couvert par :The DecoderTechCrunch AI

OpenAI vient d'annoncer de nouvelles fonctionnalités pour son Agents SDK, avec notamment l'introduction de l'exécution en sandbox et d'un environnement d'exécution natif au modèle. Ces ajouts visent à permettre aux équipes de gouvernance en entreprise de déployer des workflows automatisés avec un contrôle accru des risques. Concrètement, le SDK intègre désormais une mémoire configurable, une orchestration adaptée aux environnements sandbox, et des outils de gestion de fichiers similaires à ceux de Codex. Les développeurs peuvent également utiliser des primitives standardisées comme l'appel d'outils via MCP, des instructions personnalisées via un fichier AGENTS.md, et un outil d'application de correctifs pour les modifications de fichiers. Une abstraction baptisée "Manifest" permet de décrire l'espace de travail de manière normalisée, avec la possibilité de connecter directement des environnements à des fournisseurs de stockage majeurs : AWS S3, Azure Blob Storage, Google Cloud Storage et Cloudflare R2.

Ces évolutions répondent à un problème concret rencontré lors du passage des prototypes en production : les équipes devaient jusqu'ici choisir entre des frameworks agnostiques offrant de la flexibilité mais ne tirant pas pleinement parti des modèles frontier, ou des SDK propriétaires proches du modèle mais manquant de visibilité sur la couche de contrôle. Le résultat était souvent la construction de connecteurs maison fragiles. Le cas d'Oscar Health illustre bien l'impact potentiel : ce prestataire de santé américain a utilisé le nouveau SDK pour automatiser un workflow de traitement de dossiers cliniques que les approches précédentes ne pouvaient pas gérer de façon fiable. Rachael Burns, Staff Engineer et AI Tech Lead chez Oscar Health, précise que la différence n'était pas seulement d'extraire les bonnes métadonnées, mais de comprendre correctement les limites de chaque consultation au sein de longs dossiers médicaux complexes, permettant ainsi d'accélérer la coordination des soins et d'améliorer l'expérience patient.

Ces avancées s'inscrivent dans une tendance plus large : la course à la standardisation des infrastructures pour agents IA en entreprise. OpenAI, face à la concurrence de frameworks comme LangChain, LlamaIndex ou les offres cloud de Google et Microsoft, cherche à imposer son SDK comme la référence native pour les équipes qui utilisent ses modèles. L'introduction du Manifest et de l'exécution en sandbox signale une ambition claire : capter les déploiements en production, segment où les enjeux de sécurité, de traçabilité et de gouvernance sont déterminants. En standardisant la couche d'infrastructure, OpenAI libère les équipes techniques de la maintenance des "plomberies" et les oriente vers la logique métier à valeur ajoutée. La prochaine étape sera de voir dans quelle mesure ces outils s'intègrent avec les systèmes legacy et si l'abstraction Manifest tient ses promesses à grande échelle.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail
1The Decoder 

OpenAI transforme ChatGPT en plateforme d'automatisation d'équipe avec des agents de travail

OpenAI déploie une nouvelle fonctionnalité dans ChatGPT baptisée "workspace agents", qui représente une évolution majeure des GPTs personnalisés lancés en 2023. Ces agents, propulsés par Codex, le moteur de programmation d'OpenAI, sont conçus pour automatiser des flux de travail complexes au sein des équipes professionnelles. Contrairement aux interactions classiques avec un chatbot, ces agents peuvent s'exécuter en arrière-plan, sans surveillance humaine active, et enchaîner des tâches sur la durée. L'enjeu est considérable pour les entreprises : il ne s'agit plus de demander une réponse ponctuelle à un assistant IA, mais de déléguer des processus entiers, comme la gestion de rapports, la coordination entre outils ou le traitement de données récurrentes. Ce basculement transforme ChatGPT d'un simple outil conversationnel en véritable plateforme d'automatisation d'équipe, positionnant OpenAI en concurrence directe avec des solutions comme Microsoft Copilot, Notion AI ou encore les agents proposés par Google Workspace. Cette annonce s'inscrit dans une course effrénée à l'agentique, où les grands acteurs de l'IA cherchent à s'ancrer durablement dans les outils de productivité professionnelle. OpenAI a précisé que les GPTs personnalisés existants resteraient disponibles dans l'immédiat, une transition progressive devant être proposée ultérieurement. Le choix de Codex comme moteur sous-jacent suggère une orientation forte vers les tâches techniques et développeur, même si les usages visés dépassent largement ce seul périmètre.

UEL'adoption des workspace agents ChatGPT par les entreprises européennes soulève des enjeux de conformité RGPD, les processus métier et données sensibles étant délégués à une plateforme américaine.

OutilsOutil
1 source
Gouvernance IA d'entreprise : mise en œuvre avec OpenClaw Gateway, workflows d'approbation et exécution d'agents auditables
2MarkTechPost 

Gouvernance IA d'entreprise : mise en œuvre avec OpenClaw Gateway, workflows d'approbation et exécution d'agents auditables

Ce tutoriel présente la construction d'un système de gouvernance IA d'entreprise en utilisant OpenClaw et Python. Le système combine une passerelle OpenClaw Gateway avec une couche de gouvernance Python qui classifie les requêtes selon leur niveau de risque, applique des politiques d'approbation, et achemine les tâches vers un agent IA (basé sur GPT-4.1 mini d'OpenAI). L'objectif est de permettre aux organisations de déployer des systèmes IA autonomes tout en conservant visibilité, traçabilité et contrôle opérationnel.

OutilsOutil
1 source
Construire un runtime d'agents local-first sécurisé avec OpenClaw Gateway, skills et exécution contrôlée des outils
3MarkTechPost 

Construire un runtime d'agents local-first sécurisé avec OpenClaw Gateway, skills et exécution contrôlée des outils

OpenClaw Gateway s'impose progressivement comme une solution de référence pour les développeurs souhaitant déployer des agents IA en environnement local, sans dépendance à une infrastructure cloud tierce. Le projet, distribué via npm sous le nom openclaw, s'installe en quelques commandes sur Node.js 22 et expose un serveur de contrôle sur le port 18789 en mode loopback, c'est-à-dire uniquement accessible depuis la machine locale. L'agent communique avec des modèles de langage via une couche de routage configurable, dans les exemples fournis, OpenAI GPT-4o-mini est utilisé comme modèle principal, et orchestre l'exécution d'outils et de compétences personnalisées (appelées « skills ») au travers d'un plan de contrôle centralisé. L'authentification aux APIs de modèles passe par des variables d'environnement, jamais par des secrets codés en dur, et le runtime dispose d'une interface de contrôle web optionnelle accessible via le chemin /openclaw. Ce type d'architecture répond à un besoin croissant dans l'industrie : faire fonctionner des agents autonomes dans des environnements contraints, isolés du réseau public, où la confidentialité des données et la maîtrise des appels aux modèles sont non négociables. Le binding en loopback empêche toute exposition accidentelle du gateway sur le réseau local ou internet, tandis que le mécanisme de timeout configurable sur l'outil exec (1 800 secondes par défaut) et la gestion propre des processus en arrière-plan permettent d'encadrer précisément ce que l'agent est autorisé à faire. Pour les équipes travaillant sur des workflows d'automatisation sensibles, traitement de documents confidentiels, pipelines DevOps internes, assistants métier, cette approche offre un cadre de sécurité que les solutions SaaS ne peuvent garantir par construction. La capacité à définir des skills structurées, découvrables et invocables de manière déterministe par l'agent constitue également un avantage notable pour la reproductibilité des comportements en production. OpenClaw s'inscrit dans une tendance plus large de «local-first AI», portée par des projets comme Ollama pour l'inférence locale ou LM Studio pour la gestion de modèles. Face aux préoccupations réglementaires croissantes autour du traitement des données personnelles, RGPD en Europe, diverses lois sectorielles aux États-Unis, et à la méfiance envers les dépendances cloud critiques, plusieurs startups et équipes d'ingénierie cherchent à rapatrier le cycle complet de raisonnement des agents sur leur propre infrastructure. OpenClaw se positionne sur ce segment en proposant une couche d'abstraction entre le code applicatif Python ou JavaScript et les runtimes de modèles, avec une configuration déclarative en JSON. La prochaine étape logique sera probablement l'intégration native de modèles open source via des backends comme Ollama, pour s'affranchir totalement des API propriétaires tout en conservant la rigueur du contrôle d'exécution.

UELe mode local-first et l'absence de dépendance cloud facilitent la conformité RGPD pour les équipes européennes traitant des données personnelles.

💬 C'est le genre de projet qui arrive au bon moment, quand les DPO commencent à bloquer systématiquement les intégrations SaaS IA dans les grandes boîtes. Le binding loopback par défaut et la définition des skills en JSON déclaratif, c'est exactement ce qu'il faut pour convaincre une équipe sécu que ton agent ne va pas exfiltrer des données sensibles par accident. Reste à voir si l'écosystème grossit assez vite avant qu'un acteur plus connu ne sorte la même chose avec dix fois les ressources derrière.

OutilsOutil
1 source
Les systèmes d'IA autonomes reposent sur la gouvernance des données
4AI News 

Les systèmes d'IA autonomes reposent sur la gouvernance des données

Alors que le débat sur la sécurité de l'IA s'est longtemps concentré sur les modèles eux-mêmes, un déplacement s'opère vers les données qui les alimentent. Les systèmes d'IA autonomes — capables d'exécuter des tâches, de récupérer des informations et de déclencher des actions dans des flux métiers avec peu ou pas de supervision humaine — dépendent d'un flux continu de données fiables. Lorsque ces données sont fragmentées, obsolètes ou mal contrôlées, le comportement du système devient imprévisible. C'est sur ce problème que se positionne Denodo, éditeur de logiciels spécialisé dans la gestion et l'accès aux données distribuées. Sa plateforme crée une vue unifiée des données issues de sources multiples — clouds, bases internes, services tiers — sans avoir à les centraliser physiquement. Elle permet d'appliquer des règles d'accès, des contraintes de conformité et des limites d'utilisation depuis un point unique, tout en journalisant chaque requête pour constituer une piste d'audit exploitable. L'enjeu dépasse la simple organisation informatique. Dans les secteurs réglementés — finance, santé, industrie —, des résultats imprévisibles issus d'un système autonome peuvent engendrer des risques de conformité sérieux. Pour les applications en contact direct avec les clients, cela se traduit par des décisions erronées ou des réponses incorrectes. En garantissant que plusieurs systèmes d'IA s'appuient sur la même couche de données gouvernée, Denodo réduit le risque de sorties contradictoires entre différents départements d'une même organisation. La capacité à monitorer en temps réel l'utilisation des données et à détecter les activités inhabituelles renforce également la capacité des équipes à comprendre comment un système autonome est parvenu à une décision donnée — un prérequis de plus en plus exigé par les régulateurs. Cette évolution s'inscrit dans une maturité croissante de l'industrie vis-à-vis de l'IA en entreprise. Les premières phases de déploiement se focalisaient sur les capacités des modèles : ce qu'ils pouvaient faire. La conversation actuelle porte sur la manière dont ils doivent être gérés une fois en production. La gouvernance des données, qui constitue la couche la plus basse de la pile — en dessous des modèles et des applications — est ainsi devenue un levier de contrôle à part entière. Denodo participait notamment aux discussions sur ce sujet lors de l'AI & Big Data Expo North America 2026. La prochaine étape de l'adoption de l'IA dépendra probablement moins des avancées des modèles que de la capacité des organisations à structurer les systèmes qui les entourent : la gouvernance n'est plus une option, mais une condition d'exploitation des systèmes autonomes.

UEL'AI Act européen impose traçabilité et auditabilité des systèmes d'IA en production, rendant les plateformes de gouvernance des données directement pertinentes pour les entreprises européennes des secteurs réglementés.

OutilsActu
1 source