Aller au contenu principal
Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle
OutilsVentureBeat AI6sem

Les entreprises tournent la page du Shadow AI : Kilo lance KiloClaw for Organizations pour des agents IA sécurisés à grande échelle

Résumé IASource uniqueImpact UE
Source originale ↗·

La startup Kilo a annoncé le lancement de KiloClaw for Organizations et KiloClaw Chat, une suite d'outils destinée à encadrer l'usage des agents IA autonomes au sein des grandes entreprises. Cette annonce intervient un mois après la mise en disponibilité générale de son produit individuel OpenClaw, qui a déjà séduit plus de 25 000 utilisateurs actifs. Le benchmark propriétaire de Kilo, PinchBench, a quant à lui enregistré plus de 250 000 interactions et a été cité publiquement par Jensen Huang, PDG de Nvidia, lors de sa keynote à la conférence GTC 2026 à San Jose. Co-fondée par Scott Breitenother et Emilie Schario, la société propose un environnement de développement IA multi-modèles hébergé dans le cloud, conçu pour être portable et accessible.

Le problème que KiloClaw for Organizations cherche à résoudre est celui du « shadow AI » — ou BYOAI (Bring Your Own AI) : des développeurs et travailleurs du savoir qui déploient des agents IA autonomes sur des infrastructures personnelles, hors du contrôle de leur employeur, pour gérer agendas, dépôts de code ou flux de travail professionnels. Des directeurs IA de sous-traitants gouvernementaux ont confié à Kilo avoir découvert leurs équipes faisant tourner des agents OpenClaw sur des serveurs VPS non répertoriés. « Nous ne voyons rien : pas de journaux d'audit, pas de gestion des identifiants, aucune idée de quelles données touchent quelle API », aurait déclaré l'un d'eux. Face à cette opacité, certaines organisations ont répondu par des interdictions totales des agents autonomes, faute de stratégie claire. Le nouveau produit permet à une entreprise d'acheter un package organisationnel et d'en distribuer l'accès à chaque membre de l'équipe, dans un environnement géré et auditable.

Ce lancement s'inscrit dans une dynamique sectorielle plus large. Des acteurs majeurs comme Nvidia (NemoClaw), Cisco (DefenseClaw), Palo Alto Networks et CrowdStrike ont tous annoncé des déclinaisons entreprise d'OpenClaw, avec des mécanismes de gouvernance et de sécurité. Pourtant, selon Anand Kashyap, PDG de la société de sécurité des données Fortanix, l'adoption en entreprise reste faible : les organisations exigent un contrôle IT centralisé, un comportement prévisible et une conformité stricte des données — trois paramètres que les plateformes agentiques autonomes mettent à rude épreuve. Kashyap souligne que les solutions de périmètre traditionnelles ne réduisent pas la surface d'attaque fondamentale. À terme, le marché devrait converger vers des plateformes agentiques avec des agents pré-packagés, des contrôles centralisés et des accès aux données intégrés directement dans les LLM — des technologies comme le Confidential Computing étant appelées à jouer un rôle clé dans cette transition.

Impact France/UE

Les entreprises européennes sont confrontées aux mêmes enjeux de shadow AI, aggravés par les obligations de traçabilité et de contrôle imposées par l'AI Act pour les systèmes d'IA à risque déployés en contexte professionnel.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Organiser la mémoire des agents à grande échelle : patterns de conception par namespace dans AgentCore Memory
1AWS ML Blog 

Organiser la mémoire des agents à grande échelle : patterns de conception par namespace dans AgentCore Memory

Amazon a publié un guide technique détaillé sur la conception de namespaces dans AgentCore Memory, le système de mémoire à long terme intégré à Amazon Bedrock. La fonctionnalité, présentée dans un billet de blog officiel d'AWS, permet aux développeurs d'organiser les souvenirs de leurs agents IA sous forme de chemins hiérarchiques, similaires à des arborescences de fichiers. Concrètement, les préférences d'un utilisateur identifié comme customer-123 seront stockées sous /actor/customer-123/preferences/, tandis que les résumés de ses sessions individuelles seront rangés sous /actor/customer-123/session/session-789/summary/. Ces chemins sont générés automatiquement à partir de trois variables prédéfinies : {actorId} pour l'identifiant de l'utilisateur, {sessionId} pour la session en cours, et {memoryStrategyId} pour le type de stratégie mémoire utilisé. Le système prend en charge plusieurs stratégies superposées, notamment la mémoire sémantique pour les faits durables sur un utilisateur, et la mémoire de résumé pour les synthèses de sessions passées. L'enjeu est concret : sans organisation rigoureuse, les agents IA récupèrent du contexte non pertinent lors de leurs requêtes, ce qui dégrade la qualité des réponses et peut créer des failles de sécurité, notamment en exposant les souvenirs d'un utilisateur à un autre. Le système de namespaces résout ces deux problèmes à la fois. D'un côté, la structure hiérarchique permet une récupération à granularité variable : on peut interroger la mémoire d'une session précise, l'ensemble des préférences d'un utilisateur à travers toutes ses sessions, ou encore des données communes à tous les utilisateurs d'un même agent. De l'autre, AWS intègre des contrôles d'accès IAM natifs qui permettent de délimiter précisément qui peut lire ou écrire dans quelle portion de la mémoire, sans dupliquer le stockage physique. Les namespaces sont des partitions logiques au sein d'une même ressource mémoire, une approche que les équipes habituées aux clés de partition DynamoDB ou aux préfixes S3 reconnaîtront immédiatement. Ce guide s'inscrit dans une dynamique plus large : l'essor des agents IA en production crée une demande croissante pour des infrastructures mémoire robustes et sécurisées. Amazon Bedrock, qui concurrence directement les offres d'OpenAI, Google et Microsoft Azure dans l'espace des plateformes d'agents d'entreprise, cherche à se différencier par des primitives de bas niveau bien pensées. AgentCore Memory, présenté comme une brique fondamentale pour les agents à longue durée de vie, cible les équipes qui construisent des assistants client, des copilotes métier ou des agents autonomes nécessitant une continuité de contexte entre les sessions. La prochaine étape annoncée par AWS porte sur les patterns de récupération multi-niveaux et les stratégies d'isolation entre agents dans des architectures multi-tenants.

UEAmazon Bedrock étant déployé dans des régions AWS européennes, ces patterns de conception sont directement exploitables par les équipes françaises et européennes qui construisent des agents IA sur cette plateforme.

OutilsActu
1 source
Nemotron Labs : les enjeux des agents OpenClaw pour toutes les entreprises
2NVIDIA AI Blog 

Nemotron Labs : les enjeux des agents OpenClaw pour toutes les entreprises

En janvier 2026, le projet open source OpenClaw a franchi la barre des 100 000 étoiles sur GitHub, enregistrant plus de 2 millions de visiteurs en une seule semaine. En mars, il atteignait 250 000 étoiles, dépassant React pour devenir le projet le plus étoilé de l'histoire de GitHub en seulement 60 jours. Créé par Peter Steinberger, OpenClaw est un assistant IA autonome et persistant conçu pour fonctionner localement ou sur des serveurs privés, sans dépendre d'APIs ou d'infrastructures cloud tierces. Sa particularité réside dans son mode de fonctionnement : contrairement aux agents classiques qui s'exécutent à la demande et s'arrêtent, les "claws" tournent en continu en arrière-plan, consultent régulièrement une liste de tâches, agissent de façon autonome et n'alertent l'humain que lorsqu'une décision s'impose. Cette popularité fulgurante s'accompagne d'enjeux concrets pour les entreprises et les développeurs. Les chercheurs en sécurité ont rapidement soulevé des questions sur la gestion des données sensibles, l'authentification et les mises à jour de modèles dans des déploiements auto-hébergés. Des risques supplémentaires ont été identifiés, liés aux instances serveur non patchées ou aux contributions malveillantes dans les forks communautaires. C'est dans ce contexte que NVIDIA est entré en jeu, collaborant avec Steinberger pour renforcer la sécurité du projet : isolation des modèles, contrôle des accès aux données locales et vérification des contributions communautaires. NVIDIA a également lancé NemoClaw, une implémentation de référence qui installe en une seule commande OpenClaw, le runtime sécurisé NVIDIA OpenShell et les modèles ouverts Nemotron, avec des paramètres durcis pour le réseau, l'accès aux données et la sécurité globale. La montée en puissance d'OpenClaw illustre une tendance de fond dans l'évolution de l'IA. Après les phases prédictive, générative et de raisonnement, l'IA autonome constitue une quatrième vague qui s'installe à un rythme encore plus soutenu que les précédentes. Chaque phase a multiplié les besoins en inférence : l'IA générative a surpassé le prédictif, l'IA de raisonnement a encore multiplié les besoins par 100, et les agents autonomes à longue durée d'exécution pourraient les multiplier par 1 000 supplémentaires. Cette explosion de la demande de calcul ouvre des perspectives industrielles considérables : des chercheurs capables de travailler sur un problème toute la nuit sans supervision, des systèmes itérant sur des milliers de configurations de conception, ou des outils de monitoring capables de détecter et escalader des anomalies en temps réel. Le déploiement sécurisé de ces agents en entreprise reste cependant un chantier ouvert, que NemoClaw ambitionne de baliser.

OutilsOutil
1 source
AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud
3AWS ML Blog 

AWS lance des agents autonomes pour les tests de sécurité et les opérations cloud

Amazon Web Services a annoncé la disponibilité générale de deux agents autonomes d'intelligence artificielle lors de son événement re:Invent : AWS Security Agent, dédié aux tests d'intrusion, et AWS DevOps Agent, spécialisé dans les opérations cloud. Ces systèmes appartiennent à une nouvelle catégorie baptisée « frontier agents » — des IA capables de travailler de façon autonome pendant des heures, voire des jours, sans supervision humaine continue. Selon AWS, les retours des clients en phase de préversion sont significatifs : AWS Security Agent réduit les délais de tests de pénétration de plusieurs semaines à quelques heures, tandis qu'AWS DevOps Agent accélère la résolution d'incidents de 3 à 5 fois. Des entreprises comme Bamboo Health et HENNGE K.K. témoignent de résultats concrets, cette dernière affirmant avoir réduit la durée de ses cycles de sécurité de plus de 90 %. L'enjeu pour les équipes de sécurité et d'exploitation est majeur. La plupart des organisations ne peuvent aujourd'hui faire réaliser des tests de pénétration manuels que sur leurs applications les plus critiques, faute de temps et de budget — laissant la majorité de leur portefeuille logiciel vulnérable entre deux cycles d'audit. AWS Security Agent change cette équation en analysant le code source, les diagrammes d'architecture et la documentation pour reconstituer des chaînes d'attaque complexes que les scanners traditionnels ne détectent pas. Côté opérations, AWS DevOps Agent s'intègre avec les principaux outils du marché — CloudWatch, Datadog, Dynatrace, Splunk, Grafana, GitHub, GitLab — et corrèle télémétrie, code et données de déploiement pour identifier la cause racine d'un incident, qu'il s'agisse d'infrastructures AWS, Azure, hybrides ou on-premise. Pour les équipes SRE débordées, c'est la promesse d'un coéquipier disponible en permanence. Ces annonces s'inscrivent dans une course à l'automatisation des opérations IT qui s'intensifie depuis l'essor des grands modèles de langage. Les hyperscalers — AWS, Microsoft Azure, Google Cloud — cherchent tous à proposer des agents capables de gérer des tâches complexes et durables, au-delà des simples assistants conversationnels. AWS positionne explicitement ces outils non comme des aides ponctuelles, mais comme de véritables extensions de l'équipe humaine, capables de prendre des décisions en plusieurs étapes sans intervention constante. Amy Herzog, vice-présidente et RSSI d'AWS, indique que l'entreprise utilise elle-même AWS Security Agent en interne. La question qui se posera à mesure de l'adoption est celle de la gouvernance : jusqu'où déléguer à une IA des décisions critiques sur la sécurité ou la stabilité des systèmes de production ?

UELes entreprises européennes utilisant AWS peuvent adopter ces agents pour réduire leurs coûts et délais de tests de sécurité, mais la délégation de décisions critiques à une IA soulève des questions de conformité avec le RGPD et l'AI Act.

OutilsOutil
1 source
4NVIDIA AI Blog 

Adobe déploie des agents IA autonomes à grande échelle avec NVIDIA et WPP pour booster la créativité

Adobe, NVIDIA et WPP ont annoncé un renforcement de leur collaboration stratégique pour déployer des agents IA au cœur des opérations marketing d'entreprise, une annonce faite à l'occasion de l'Adobe Summit, dont la keynote du deuxième jour est prévue le 21 avril 2026. Le dispositif repose sur trois briques complémentaires : les plateformes créatives d'Adobe, dont le nouvel Adobe CX Enterprise Coworker, le runtime sécurisé NVIDIA OpenShell combiné aux modèles ouverts Nemotron et au NVIDIA Agent Toolkit, et l'expertise mondiale de WPP en conseil marketing. Concrètement, ces agents sont capables de générer, adapter et versionner des visuels, du texte et des offres commerciales à travers des millions de combinaisons de produits, d'audiences et de canaux, en quelques minutes plutôt qu'en plusieurs mois. L'enjeu central de cette collaboration est le contrôle. Quand des agents IA orchestrent des flux de travail en plusieurs étapes, accèdent à des données sensibles et déclenchent des actions automatisées à grande échelle, la question de la gouvernance devient critique pour les grandes entreprises. NVIDIA OpenShell répond à ce problème en faisant tourner chaque agent dans un environnement conteneurisé, isolé et auditable, avec une gestion de politiques vérifiable qui définit précisément ce que l'agent est autorisé à faire, et pas seulement quelles règles sont théoriquement en place. Adobe Firefly Foundry, accéléré par l'infrastructure NVIDIA, permet par ailleurs aux organisations d'entraîner des modèles personnalisés sur leurs propres actifs pour produire du contenu commercialement sûr, aligné sur l'identité de marque. Cette annonce s'inscrit dans une course industrielle à l'automatisation du marketing de masse personnalisé, portée par la demande explosive d'expériences client sur mesure à travers tous les canaux numériques. Adobe complète son offre avec une solution de jumeaux numériques 3D désormais disponible en général, construite sur les bibliothèques NVIDIA Omniverse et le standard OpenUSD : ces répliques virtuelles de produits servent d'identités persistantes que les agents exploitent pour automatiser la production de contenus haute fidélité dans différents formats et marchés. La convergence entre Adobe, spécialiste du creative cloud et de l'expérience client, NVIDIA, fournisseur d'infrastructure d'accélération et de couches logicielles agentiques, et WPP, premier groupe mondial de communication, dessine un modèle où les grandes marques pourraient déléguer l'essentiel de leur production créative à des systèmes autonomes, tout en conservant un contrôle granulaire sur chaque action déclenchée.

UEWPP, premier groupe mondial de communication avec une forte présence en Europe, est au cœur de ce déploiement, ce qui pourrait accélérer l'adoption d'agents IA dans les agences marketing européennes travaillant sur des campagnes multicanal à grande échelle.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour