Aller au contenu principal
SécuritéFrenchWeb6j

Cyera rachète Ryft pour accélérer sur la sécurisation des données à l’ère des agents IA

Résumé IASource uniqueImpact UE
Source originale ↗·

La société de cybersécurité Cyera a annoncé l'acquisition de la startup israélienne Ryft, spécialisée dans la gestion automatisée et sécurisée des données pour les systèmes d'intelligence artificielle. Le montant de la transaction n'a pas été officiellement dévoilé, mais des sources du secteur l'estiment entre 92 et 120 millions d'euros, une valorisation remarquable pour une entreprise fondée en 2024 qui n'avait levé que 6,8 millions d'euros depuis sa création.

Ce rachat illustre la pression croissante que font peser les agents IA sur la gestion des données sensibles en entreprise. Les systèmes agentiques, qui accèdent et manipulent des données de façon autonome, créent des surfaces d'attaque inédites que les outils de sécurité traditionnels ne sont pas conçus pour surveiller. En intégrant la technologie de Ryft, Cyera entend offrir une visibilité en temps réel sur les flux de données traversant ces agents, répondant à une demande urgente des équipes sécurité dans les grandes organisations.

Cyera s'était déjà positionnée comme un acteur majeur de la sécurisation des données cloud, ayant levé plusieurs centaines de millions de dollars ces dernières années. L'acquisition de Ryft s'inscrit dans une vague plus large de consolidation autour de la sécurité de l'IA : à mesure que les entreprises déploient des agents autonomes en production, la question du contrôle des accès aux données et de la traçabilité des actions devient un enjeu stratégique. Les prochains mois diront si Cyera parvient à transformer cette intégration en avantage compétitif durable face à des acteurs comme Wiz ou Palo Alto Networks.

Impact France/UE

Les entreprises européennes déployant des agents IA autonomes sont exposées aux mêmes risques sur leurs données sensibles, mais aucun acteur ou régulateur français ou européen n'est directement impliqué dans cette transaction.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes
1AWS ML Blog 

La gouvernance peut-elle suivre vos ambitions en IA ? Gestion du risque à l'ère des agents autonomes

L'ère de l'IA agentique bouleverse les fondements de la gouvernance informatique traditionnelle. Là où les systèmes DevOps classiques produisaient des résultats déterministes — même entrée, même sortie, dépendances connues — les agents IA opèrent de façon non déterministe : posez la même question deux fois, vous obtenez deux réponses différentes. Ces agents sélectionnent eux-mêmes leurs outils, adaptent leurs raisonnements et agissent de manière autonome. Face à ce constat, AWS Generative AI Innovation Center a développé une solution appelée AI Risk Intelligence (AIRI), un système de gouvernance automatisée qui centralise les évaluations de sécurité, d'opérations et de conformité en un seul tableau de bord couvrant l'ensemble du cycle de vie agentique. La solution s'appuie sur le cadre AWS Responsible AI Best Practices, construit à partir de l'expérience acquise sur des centaines de milliers de déploiements IA. L'enjeu est concret : les cadres de gouvernance IT conçus pour des déploiements statiques sont incapables de gérer les interactions complexes des systèmes multi-agents. Un scénario illustratif le démontre clairement — et figure dans le Top 10 OWASP des vulnérabilités agentiques pour 2026. Un assistant IA d'entreprise, légitimement autorisé à accéder aux e-mails, au calendrier et au CRM, reçoit via un e-mail des instructions malveillantes dissimulées. Lorsqu'un utilisateur demande un résumé anodin, l'agent compromis suit ces directives cachées : il fouille des données sensibles et les exfiltre via des invitations calendrier, tout en affichant une réponse bénigne. Les outils classiques de prévention des fuites de données et de surveillance réseau ne détectent rien — car l'agent agit dans le strict périmètre de ses permissions légitimes. La violation est invisible aux yeux des systèmes traditionnels. Ce cas révèle la nature systémique du risque agentique : une faille de sécurité se propage simultanément à travers plusieurs dimensions. L'action d'un agent en déclenche d'autres, les contrôles d'accès ne sont pas réévalués en continu pendant l'exécution, aucun point de contrôle humain ne s'interpose avant une action à haut risque, et les responsables de la conformité ne peuvent pas interpréter les données de monitoring pour détecter l'anomalie à temps. C'est pourquoi AIRI entend fusionner sécurité, opérations et gouvernance en un dispositif intégré plutôt qu'en silos séparés. Dans un contexte où les entreprises accélèrent leurs déploiements d'agents autonomes — pour automatiser des workflows, piloter des décisions, interagir avec des systèmes critiques — la question n'est plus seulement de savoir si l'IA fonctionne, mais si l'organisation peut réellement maîtriser ce qu'elle fait.

UELes entreprises européennes déployant des agents IA autonomes doivent adapter leurs cadres de gouvernance pour satisfaire aux exigences de l'AI Act, notamment en matière de supervision humaine, de traçabilité et de contrôle continu des systèmes à haut risque.

SécuritéActu
1 source
Microsoft publie un toolkit open source pour sécuriser les agents IA en production
2AI News 

Microsoft publie un toolkit open source pour sécuriser les agents IA en production

Microsoft a publié un toolkit open-source destiné à sécuriser les agents d'intelligence artificielle en temps réel au sein des environnements d'entreprise. Baptisé runtime security toolkit, cet outil s'intercale entre le modèle de langage et le réseau d'entreprise pour surveiller, évaluer et bloquer les actions des agents autonomes au moment précis où ils tentent de les exécuter. Concrètement, lorsqu'un agent IA déclenche un appel vers un outil externe, une base de données, un pipeline CI/CD ou un dépôt cloud, le toolkit intercepte la requête, la compare à un ensemble de règles de gouvernance centralisées, et bloque l'action si elle enfreint la politique définie. Un agent autorisé uniquement à consulter un inventaire qui tenterait de passer une commande d'achat se verrait immédiatement arrêté, et l'événement serait journalisé pour révision humaine. L'enjeu est considérable pour les équipes de sécurité et les développeurs. Les systèmes d'IA d'entreprise ne se contentent plus de répondre à des questions : ils exécutent du code, envoient des e-mails, modifient des fichiers et interagissent avec des API critiques sans intervention humaine directe. Les méthodes traditionnelles, analyse statique du code, scan de vulnérabilités avant déploiement, sont structurellement inadaptées aux modèles de langage non-déterministes. Une seule attaque par injection de prompt ou une hallucination mal orientée peut suffire à écraser une base de données ou exfiltrer des données clients. Le toolkit de Microsoft découple la politique de sécurité de la logique applicative : les développeurs n'ont plus à hardcoder des règles de sécurité dans chaque prompt, et les équipes sécurité disposent d'une piste d'audit vérifiable pour chaque décision autonome du modèle. Le choix de publier ce toolkit sous licence open-source n'est pas anodin. Les développeurs construisent aujourd'hui des workflows autonomes en combinant des bibliothèques open-source, des frameworks variés et des modèles tiers, Anthropic, Meta, Mistral ou d'autres. Un outil propriétaire lié à l'écosystème Microsoft aurait probablement été contourné au profit de solutions non vérifiées, sous pression des délais. En ouvrant le code, Microsoft permet à n'importe quelle organisation, qu'elle tourne sur des modèles locaux, sur Azure ou sur des architectures hybrides, d'intégrer ces contrôles de gouvernance sans dépendance fournisseur. L'ouverture invite aussi la communauté cybersécurité à contribuer et à empiler des outils commerciaux, tableaux de bord, intégrations de réponse aux incidents, par-dessus cette fondation commune, accélérant la maturité de tout l'écosystème. À mesure que les agents autonomes s'imposent dans les entreprises, ce type de couche de sécurité d'infrastructure pourrait devenir un standard incontournable.

UELes entreprises européennes déployant des agents IA peuvent adopter cet outil open-source pour répondre aux exigences de gouvernance et de traçabilité imposées par l'AI Act.

SécuritéOpinion
1 source
Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars
3The Information AI 

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars

Cisco est en négociations avancées pour acquérir Astrix Security, une startup israélienne de cybersécurité fondée il y a cinq ans, pour un montant compris entre 250 et 350 millions de dollars. Cette somme représenterait une prime d'au moins 25 % par rapport à la dernière valorisation de la société, estimée à environ 200 millions de dollars. Astrix commercialise des logiciels permettant de surveiller et sécuriser les agents IA, ces programmes capables d'agir automatiquement au nom des utilisateurs sur leurs appareils. Cette acquisition potentielle illustre l'urgence croissante pour les grandes entreprises technologiques de se doter d'outils face aux risques que posent les agents IA. En quelques mois, leur adoption a explosé dans les environnements professionnels, soulevant des questions inédites de sécurité : un agent mal configuré ou compromis peut accéder à des données sensibles, exécuter des actions non autorisées ou servir de vecteur d'attaque. Pour les entreprises clientes de Cisco, disposer d'une couche de protection dédiée devient rapidement une priorité opérationnelle. Cisco s'inscrit dans une tendance de fond : les grands éditeurs de logiciels, de Microsoft à Palo Alto Networks, cherchent à intégrer des capacités de sécurité spécifiques aux agents IA, soit en développant leurs propres fonctionnalités, soit en rachetant des startups spécialisées. Fondée en Israël, qui reste un vivier mondial de talents en cybersécurité, Astrix a su se positionner tôt sur ce créneau émergent. Si l'accord se conclut, il signalerait que la sécurisation des agents IA est désormais considérée comme un marché à part entière, et non plus un simple ajout aux solutions existantes.

UELes entreprises européennes clientes de Cisco pourraient bénéficier de capacités renforcées pour sécuriser leurs agents IA, un besoin croissant dans les environnements professionnels soumis au RGPD et à l'AI Act.

SécuritéActu
1 source
Amazon utilise des agents IA pour la détection de vulnérabilités à grande échelle
4Amazon Science 

Amazon utilise des agents IA pour la détection de vulnérabilités à grande échelle

En 2025, la base de données nationale des vulnérabilités américaine (NVD) a enregistré plus de 48 000 nouvelles failles de sécurité référencées (CVE), un volume rendu possible en grande partie par la prolifération des outils automatisés de détection. Face à cette explosion, Amazon Web Services a développé RuleForge, un système d'intelligence artificielle agentique conçu pour générer automatiquement des règles de détection à partir d'exemples de code d'exploitation de vulnérabilités. Déployé en production chez AWS, RuleForge affiche une productivité supérieure de 336 % à la création manuelle, tout en conservant le niveau de précision exigé pour des systèmes de sécurité industriels. Les règles produites sont au format JSON et alimentent directement MadPot, le système mondial de "honeypot" d'Amazon qui capture le comportement des attaquants, ainsi que Sonaris, le moteur interne de détection d'exploits suspects. Avant RuleForge, transformer une CVE en règle de détection opérationnelle était un processus entièrement manuel : un analyste téléchargeait le code de preuve de concept, étudiait le mécanisme d'attaque, rédigeait la logique de détection, la validait par itérations successives contre les journaux de trafic, puis soumettait le tout à une revue par un second ingénieur avant déploiement. Ce cycle, rigoureux mais lent, obligeait les équipes à prioriser strictement les vulnérabilités traitées, laissant potentiellement des failles critiques sans couverture. RuleForge comprime ce délai de façon drastique : le système ingère automatiquement le code d'exploitation public, attribue un score de priorité via une analyse de contenu croisée avec des sources de threat intelligence, puis génère en parallèle plusieurs règles candidates via un agent tournant sur AWS Fargate avec Amazon Bedrock. Chaque candidate est évaluée non pas par le modèle qui l'a produite, mais par un agent "juge" distinct, évitant ainsi l'auto-validation biaisée. Les humains restent dans la boucle pour l'approbation finale avant mise en production. Cette architecture reflète une tendance profonde dans la sécurité offensive et défensive : l'automatisation par IA ne remplace pas les experts, elle leur permet de travailler à une échelle autrement inaccessible. AWS anticipe une croissance continue du nombre de CVE à haute sévérité publiées, portée par les mêmes outils d'IA qui accélèrent la découverte de failles côté attaquants. RuleForge représente la réponse symétrique côté défense, en industrialisant la réactivité. L'approche modulaire, avec des agents spécialisés pour la génération, l'évaluation et le raffinement, plutôt qu'un seul modèle monolithique, s'inscrit dans la lignée des architectures multi-agents qui émergent comme standard pour les tâches complexes nécessitant fiabilité et auditabilité. D'autres grands acteurs du cloud font face aux mêmes défis, et la publication par Amazon des détails de RuleForge suggère une volonté de positionner cette approche comme référence sectorielle.

SécuritéActu
1 source