Aller au contenu principal
Cyera rachète Ryft pour accélérer sur la sécurisation des données à l’ère des agents IA
SécuritéFrenchWeb1sem

Cyera rachète Ryft pour accélérer sur la sécurisation des données à l’ère des agents IA

Résumé IASource uniqueImpact UE
Source originale ↗·

La société de cybersécurité Cyera a annoncé l'acquisition de la startup israélienne Ryft, spécialisée dans la gestion automatisée et sécurisée des données pour les systèmes d'intelligence artificielle. Le montant de la transaction n'a pas été officiellement dévoilé, mais des sources du secteur l'estiment entre 92 et 120 millions d'euros, une valorisation remarquable pour une entreprise fondée en 2024 qui n'avait levé que 6,8 millions d'euros depuis sa création.

Ce rachat illustre la pression croissante que font peser les agents IA sur la gestion des données sensibles en entreprise. Les systèmes agentiques, qui accèdent et manipulent des données de façon autonome, créent des surfaces d'attaque inédites que les outils de sécurité traditionnels ne sont pas conçus pour surveiller. En intégrant la technologie de Ryft, Cyera entend offrir une visibilité en temps réel sur les flux de données traversant ces agents, répondant à une demande urgente des équipes sécurité dans les grandes organisations.

Cyera s'était déjà positionnée comme un acteur majeur de la sécurisation des données cloud, ayant levé plusieurs centaines de millions de dollars ces dernières années. L'acquisition de Ryft s'inscrit dans une vague plus large de consolidation autour de la sécurité de l'IA : à mesure que les entreprises déploient des agents autonomes en production, la question du contrôle des accès aux données et de la traçabilité des actions devient un enjeu stratégique. Les prochains mois diront si Cyera parvient à transformer cette intégration en avantage compétitif durable face à des acteurs comme Wiz ou Palo Alto Networks.

Impact France/UE

Les entreprises européennes déployant des agents IA autonomes sont exposées aux mêmes risques sur leurs données sensibles, mais aucun acteur ou régulateur français ou européen n'est directement impliqué dans cette transaction.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes
1AWS ML Blog 

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes

L'ère de l'IA agentique bouleverse les fondements de la gouvernance informatique traditionnelle. Là où les systèmes DevOps classiques produisaient des résultats déterministes — même entrée, même sortie, dépendances connues — les agents IA opèrent de façon non déterministe : posez la même question deux fois, vous obtenez deux réponses différentes. Ces agents sélectionnent eux-mêmes leurs outils, adaptent leurs raisonnements et agissent de manière autonome. Face à ce constat, AWS Generative AI Innovation Center a développé une solution appelée AI Risk Intelligence (AIRI), un système de gouvernance automatisée qui centralise les évaluations de sécurité, d'opérations et de conformité en un seul tableau de bord couvrant l'ensemble du cycle de vie agentique. La solution s'appuie sur le cadre AWS Responsible AI Best Practices, construit à partir de l'expérience acquise sur des centaines de milliers de déploiements IA. L'enjeu est concret : les cadres de gouvernance IT conçus pour des déploiements statiques sont incapables de gérer les interactions complexes des systèmes multi-agents. Un scénario illustratif le démontre clairement — et figure dans le Top 10 OWASP des vulnérabilités agentiques pour 2026. Un assistant IA d'entreprise, légitimement autorisé à accéder aux e-mails, au calendrier et au CRM, reçoit via un e-mail des instructions malveillantes dissimulées. Lorsqu'un utilisateur demande un résumé anodin, l'agent compromis suit ces directives cachées : il fouille des données sensibles et les exfiltre via des invitations calendrier, tout en affichant une réponse bénigne. Les outils classiques de prévention des fuites de données et de surveillance réseau ne détectent rien — car l'agent agit dans le strict périmètre de ses permissions légitimes. La violation est invisible aux yeux des systèmes traditionnels. Ce cas révèle la nature systémique du risque agentique : une faille de sécurité se propage simultanément à travers plusieurs dimensions. L'action d'un agent en déclenche d'autres, les contrôles d'accès ne sont pas réévalués en continu pendant l'exécution, aucun point de contrôle humain ne s'interpose avant une action à haut risque, et les responsables de la conformité ne peuvent pas interpréter les données de monitoring pour détecter l'anomalie à temps. C'est pourquoi AIRI entend fusionner sécurité, opérations et gouvernance en un dispositif intégré plutôt qu'en silos séparés. Dans un contexte où les entreprises accélèrent leurs déploiements d'agents autonomes — pour automatiser des workflows, piloter des décisions, interagir avec des systèmes critiques — la question n'est plus seulement de savoir si l'IA fonctionne, mais si l'organisation peut réellement maîtriser ce qu'elle fait.

UELes entreprises européennes déployant des agents IA autonomes doivent adapter leurs cadres de gouvernance pour satisfaire aux exigences de l'AI Act, notamment en matière de supervision humaine, de traçabilité et de contrôle continu des systèmes à haut risque.

SécuritéActu
1 source
2AWS ML Blog 

Amazon Bedrock AgentCore Identity permet de sécuriser des agents IA sur Amazon ECS

Amazon a lancé AgentCore Identity, un service intégré à Amazon Bedrock, conçu pour sécuriser l'accès des agents d'intelligence artificielle aux services externes. Disponible en tant que service autonome, il s'intègre aux principales plateformes de calcul d'AWS, Amazon ECS, Amazon EKS, AWS Lambda, ainsi qu'aux environnements on-premises. La solution s'appuie sur deux protocoles standards : OAuth 2.0 (RFC 6749) pour l'autorisation des actions, et OpenID Connect (OIDC) pour l'authentification des utilisateurs. Le flux retenu est l'Authorization Code Grant, dit « 3-legged OAuth » : l'utilisateur s'authentifie auprès d'un fournisseur d'identité comme Microsoft Entra ID, donne son consentement explicite, et l'application échange un code d'autorisation contre un jeton d'accès à portée limitée. Ce jeton est ensuite conservé dans le coffre-fort de tokens d'AgentCore Identity, lié à l'identité précise de l'utilisateur, créant ainsi une chaîne d'audit traçable de l'authentification jusqu'à l'action de l'agent. Ce mécanisme répond à un problème concret et croissant en production : comment empêcher un agent IA d'agir au-delà de ce que l'utilisateur a expressément autorisé. AgentCore Identity introduit un « session binding » applicatif qui protège contre les attaques CSRF et les attaques par substitution de navigateur, deux vecteurs courants dans les flux OAuth mal implémentés. Chaque token est scopé à une session utilisateur individuelle, suivant le principe du moindre privilège : l'agent ne peut accéder qu'aux ressources pour lesquelles le consentement a été donné. La séparation des responsabilités entre le workload agent et le service de session binding permet en outre de réduire la surface d'attaque et de centraliser la gestion du cycle de vie des tokens, sans que l'application principale n'ait à gérer ce risque directement. La mise en production de cette architecture illustre une tendance de fond dans l'industrie cloud : les agents IA autonomes ne peuvent plus fonctionner sur la base de credentials statiques ou de permissions trop larges. AWS propose ici une implémentation de référence déployée sur Amazon ECS derrière un Application Load Balancer, avec chiffrement HTTPS via AWS Certificate Manager et routage DNS via Amazon Route 53. Le code source complet est disponible sur GitHub. Pour les équipes qui construisent des agents agissant pour le compte d'utilisateurs réels, assistants, automatisations, workflows délégués, cette approche standardisée autour d'OIDC et OAuth 2.0 constitue désormais une baseline de sécurité incontournable, d'autant qu'elle s'appuie sur des fournisseurs d'identité existants plutôt que de réinventer une gestion des identités propriétaire.

UELes équipes européennes déployant des agents IA sur AWS disposent d'une baseline de sécurité standardisée qui facilite la conformité RGPD grâce au consentement explicite, à la traçabilité des accès et au principe du moindre privilège.

SécuritéOutil
1 source
Microsoft publie un toolkit open source pour sécuriser les agents IA en production
3AI News 

Microsoft publie un toolkit open source pour sécuriser les agents IA en production

Microsoft a publié un toolkit open-source destiné à sécuriser les agents d'intelligence artificielle en temps réel au sein des environnements d'entreprise. Baptisé runtime security toolkit, cet outil s'intercale entre le modèle de langage et le réseau d'entreprise pour surveiller, évaluer et bloquer les actions des agents autonomes au moment précis où ils tentent de les exécuter. Concrètement, lorsqu'un agent IA déclenche un appel vers un outil externe, une base de données, un pipeline CI/CD ou un dépôt cloud, le toolkit intercepte la requête, la compare à un ensemble de règles de gouvernance centralisées, et bloque l'action si elle enfreint la politique définie. Un agent autorisé uniquement à consulter un inventaire qui tenterait de passer une commande d'achat se verrait immédiatement arrêté, et l'événement serait journalisé pour révision humaine. L'enjeu est considérable pour les équipes de sécurité et les développeurs. Les systèmes d'IA d'entreprise ne se contentent plus de répondre à des questions : ils exécutent du code, envoient des e-mails, modifient des fichiers et interagissent avec des API critiques sans intervention humaine directe. Les méthodes traditionnelles, analyse statique du code, scan de vulnérabilités avant déploiement, sont structurellement inadaptées aux modèles de langage non-déterministes. Une seule attaque par injection de prompt ou une hallucination mal orientée peut suffire à écraser une base de données ou exfiltrer des données clients. Le toolkit de Microsoft découple la politique de sécurité de la logique applicative : les développeurs n'ont plus à hardcoder des règles de sécurité dans chaque prompt, et les équipes sécurité disposent d'une piste d'audit vérifiable pour chaque décision autonome du modèle. Le choix de publier ce toolkit sous licence open-source n'est pas anodin. Les développeurs construisent aujourd'hui des workflows autonomes en combinant des bibliothèques open-source, des frameworks variés et des modèles tiers, Anthropic, Meta, Mistral ou d'autres. Un outil propriétaire lié à l'écosystème Microsoft aurait probablement été contourné au profit de solutions non vérifiées, sous pression des délais. En ouvrant le code, Microsoft permet à n'importe quelle organisation, qu'elle tourne sur des modèles locaux, sur Azure ou sur des architectures hybrides, d'intégrer ces contrôles de gouvernance sans dépendance fournisseur. L'ouverture invite aussi la communauté cybersécurité à contribuer et à empiler des outils commerciaux, tableaux de bord, intégrations de réponse aux incidents, par-dessus cette fondation commune, accélérant la maturité de tout l'écosystème. À mesure que les agents autonomes s'imposent dans les entreprises, ce type de couche de sécurité d'infrastructure pourrait devenir un standard incontournable.

UELes entreprises européennes déployant des agents IA peuvent adopter cet outil open-source pour répondre aux exigences de gouvernance et de traçabilité imposées par l'AI Act.

SécuritéOpinion
1 source
Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars
4The Information AI 

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars

Cisco est en négociations avancées pour acquérir Astrix Security, une startup israélienne de cybersécurité fondée il y a cinq ans, pour un montant compris entre 250 et 350 millions de dollars. Cette somme représenterait une prime d'au moins 25 % par rapport à la dernière valorisation de la société, estimée à environ 200 millions de dollars. Astrix commercialise des logiciels permettant de surveiller et sécuriser les agents IA, ces programmes capables d'agir automatiquement au nom des utilisateurs sur leurs appareils. Cette acquisition potentielle illustre l'urgence croissante pour les grandes entreprises technologiques de se doter d'outils face aux risques que posent les agents IA. En quelques mois, leur adoption a explosé dans les environnements professionnels, soulevant des questions inédites de sécurité : un agent mal configuré ou compromis peut accéder à des données sensibles, exécuter des actions non autorisées ou servir de vecteur d'attaque. Pour les entreprises clientes de Cisco, disposer d'une couche de protection dédiée devient rapidement une priorité opérationnelle. Cisco s'inscrit dans une tendance de fond : les grands éditeurs de logiciels, de Microsoft à Palo Alto Networks, cherchent à intégrer des capacités de sécurité spécifiques aux agents IA, soit en développant leurs propres fonctionnalités, soit en rachetant des startups spécialisées. Fondée en Israël, qui reste un vivier mondial de talents en cybersécurité, Astrix a su se positionner tôt sur ce créneau émergent. Si l'accord se conclut, il signalerait que la sécurisation des agents IA est désormais considérée comme un marché à part entière, et non plus un simple ajout aux solutions existantes.

UELes entreprises européennes clientes de Cisco pourraient bénéficier de capacités renforcées pour sécuriser leurs agents IA, un besoin croissant dans les environnements professionnels soumis au RGPD et à l'AI Act.

SécuritéActu
1 source