Aller au contenu principal
Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars
SécuritéThe Information AI1h

Cisco en négociations pour acquérir la startup de sécurité IA Astrix pour au moins 250 millions de dollars

1 source couvre ce sujet·Source originale ↗·

Cisco est en négociations avancées pour acquérir Astrix Security, une startup israélienne de cybersécurité fondée il y a cinq ans, pour un montant compris entre 250 et 350 millions de dollars. Cette somme représenterait une prime d'au moins 25 % par rapport à la dernière valorisation de la société, estimée à environ 200 millions de dollars. Astrix commercialise des logiciels permettant de surveiller et sécuriser les agents IA, ces programmes capables d'agir automatiquement au nom des utilisateurs sur leurs appareils.

Cette acquisition potentielle illustre l'urgence croissante pour les grandes entreprises technologiques de se doter d'outils face aux risques que posent les agents IA. En quelques mois, leur adoption a explosé dans les environnements professionnels, soulevant des questions inédites de sécurité : un agent mal configuré ou compromis peut accéder à des données sensibles, exécuter des actions non autorisées ou servir de vecteur d'attaque. Pour les entreprises clientes de Cisco, disposer d'une couche de protection dédiée devient rapidement une priorité opérationnelle.

Cisco s'inscrit dans une tendance de fond : les grands éditeurs de logiciels, de Microsoft à Palo Alto Networks, cherchent à intégrer des capacités de sécurité spécifiques aux agents IA, soit en développant leurs propres fonctionnalités, soit en rachetant des startups spécialisées. Fondée en Israël, qui reste un vivier mondial de talents en cybersécurité, Astrix a su se positionner tôt sur ce créneau émergent. Si l'accord se conclut, il signalerait que la sécurisation des agents IA est désormais considérée comme un marché à part entière, et non plus un simple ajout aux solutions existantes.

Impact France/UE

Les entreprises européennes clientes de Cisco pourraient bénéficier de capacités renforcées pour sécuriser leurs agents IA, un besoin croissant dans les environnements professionnels soumis au RGPD et à l'AI Act.

À lire aussi

1VentureBeat AI 

Les credentials des agents IA coexistent avec du code non fiable : deux architectures délimitent le périmètre de risque

À la conférence RSAC 2026, quatre grandes entreprises de cybersécurité ont tiré la même sonnette d'alarme sans s'être concertées. Microsoft, Cisco, CrowdStrike et Splunk ont chacun, depuis leur propre scène, identifié la gouvernance des agents IA comme le principal angle mort de la sécurité d'entreprise. Les chiffres donnent raison à cette convergence : 79 % des organisations déploient déjà des agents IA selon PwC, mais seulement 14,4 % disposent d'une approbation de sécurité complète pour l'ensemble de leur flotte, d'après le rapport Gravitee de février 2026 portant sur 919 organisations. Seules 26 % ont adopté une politique de gouvernance IA, selon une enquête de la Cloud Security Alliance présentée à la conférence. En parallèle, une campagne d'attaque baptisée ClawHavoc, nommée par Koi Security le 1er février 2026, a ciblé le framework agentique OpenClaw via sa place de marché : Antiy CERT a confirmé 1 184 compétences malveillantes liées à 12 comptes éditeurs, et les recherches ToxicSkills de Snyk révèlent que 36,8 % des 3 984 compétences scannées présentent des failles de sécurité, dont 13,4 % jugées critiques. Enfin, le 8 avril 2026, Anthropic a lancé en bêta publique son architecture Managed Agents, qui sépare chaque agent en trois composants distincts. Le problème structurel que ces alertes pointent est précis : dans la majorité des déploiements actuels, le modèle de raisonnement, les outils, le code exécuté et les identifiants, tokens OAuth, clés API, accès Git, cohabitent dans un même processus monolithique. Une seule injection de prompt suffit à exposer l'intégralité de l'environnement. Le rayon d'explosion n'est pas limité à l'agent : c'est le conteneur entier et tous les services connectés qui deviennent accessibles. Fait aggravant, 43 % des organisations utilisent des comptes de service partagés pour leurs agents, 52 % s'appuient sur des identités de charge de travail génériques, et 68 % sont incapables de distinguer l'activité d'un agent de celle d'un humain dans leurs journaux de logs. Le temps moyen de compromission est tombé à 29 minutes ; le plus rapide observé cette année : 27 secondes. Ce vide de responsabilité n'est pas nouveau, mais l'accélération des déploiements l'a rendu critique. Les équipes sécurité renvoyaient le sujet aux développeurs, les développeurs aux équipes sécurité. La campagne ClawHavoc illustre comment des acteurs malveillants exploitent déjà ce flou en ciblant les places de marché de compétences agentiques, vecteur d'attaque de type supply chain. Face à cette réalité, deux architectures concurrentes ont émergé à RSAC pour répondre différemment à la même question : où stopper le rayon d'explosion ? L'approche d'Anthropic, qui dissocie cerveau, mains et identifiants dans des composants séparés, s'oppose à d'autres modèles centrés sur la vérification continue de chaque action. Le débat sur la norme qui s'imposera dans l'industrie ne fait que commencer.

UELes entreprises européennes sont directement exposées : avec seulement 14,4 % des organisations disposant d'une approbation sécurité complète pour leurs agents IA, leurs infrastructures restent vulnérables aux attaques de type supply chain ciblant les places de marché agentiques.

SécuritéOpinion
1 source
Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant
2Le Big Data 

Cybersécurité : OpenAI réplique à Anthropic avec un outil secret et « ultra-puissant

OpenAI prépare un service de cybersécurité avancé, accessible uniquement sur invitation, quelques jours à peine après qu'Anthropic a annoncé Mythos, son propre outil capable, selon l'entreprise, de détecter des vulnérabilités restées invisibles pendant près de trente ans. D'après des informations rapportées par Axios le 9 avril 2026, il ne s'agira pas d'un nouveau modèle à proprement parler, mais d'une offre distincte et structurée, indépendante des autres projets en cours d'OpenAI, notamment Spud. En réalité, la société ne part pas de zéro : elle pilote depuis plusieurs mois un programme confidentiel baptisé "Trusted Access for Cyber", qui permet déjà à certaines organisations sélectionnées d'accéder à des modèles plus permissifs et plus performants dans des contextes de cybersécurité. C'est ce dispositif existant qu'OpenAI entend désormais transformer en produit visible, avec une ambition claire : s'imposer comme acteur de référence dans la cybersécurité de nouvelle génération. L'enjeu dépasse la simple rivalité technologique. Les grandes organisations, qu'il s'agisse d'infrastructures critiques, de gouvernements ou d'entreprises du secteur financier, cherchent activement des outils capables d'automatiser la détection et la correction de failles à une échelle et une vitesse inatteignables par des équipes humaines seules. Un système d'IA capable d'identifier des vulnérabilités critiques en quelques heures plutôt qu'en plusieurs mois représente un changement de paradigme pour la sécurité informatique mondiale. Le modèle d'accès sur invitation, adopté à la fois par Anthropic et par OpenAI, répond à une problématique centrale du secteur : comment exploiter des IA puissantes sans ouvrir la porte à des usages offensifs ou malveillants, notamment pour automatiser des cyberattaques ? Cette séquence révèle aussi une bataille de communication intense entre les deux leaders de l'IA générative. Anthropic a imposé le tempo médiatique avec l'annonce de Mythos et de son projet Glasswing, une initiative présentée comme urgente pour sécuriser les logiciels critiques mondiaux. Mais dans la communauté cybersécurité, certains chercheurs affirment avoir reproduit des résultats comparables avec d'autres modèles existants, sans dispositif aussi exclusif, ce qui relativise la portée des annonces et rappelle que les performances réelles restent difficiles à évaluer sans audits indépendants. OpenAI, perçue comme leader sur les modèles généralistes, ne pouvait pas laisser Anthropic s'installer seule sur ce segment stratégique sans répondre. Si son nouvel outil parvient à démontrer une avance réelle en précision, en vitesse ou en automatisation, il pourrait redéfinir certains standards du secteur. Dans le cas contraire, cette sortie ressemblera davantage à un mouvement défensif de communication qu'à une véritable rupture technologique.

UELes gouvernements et infrastructures critiques européens pourraient bénéficier de ces outils de détection automatisée de vulnérabilités, mais aucun acteur européen n'est directement impliqué dans ces annonces.

SécuritéOpinion
1 source
OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic
3Siècle Digital 

OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic

OpenAI prépare un modèle d'intelligence artificielle spécialisé dans la cybersécurité, développé en réponse directe à Mythos, le modèle similaire annoncé par Anthropic quelques jours plus tôt. L'information, rapportée par Axios, révèle que cet outil ne sera pas accessible au grand public : il sera distribué exclusivement à un cercle restreint de partenaires sélectionnés, notamment des entreprises technologiques et des acteurs spécialisés dans la sécurité informatique, selon le même modèle de distribution fermée qu'Anthropic a choisi pour Mythos. Cette approche restrictive reflète les enjeux sensibles liés aux modèles d'IA orientés cybersécurité, capables à la fois de défendre des systèmes et de les attaquer. En réservant l'accès à des partenaires de confiance, OpenAI tente de concilier l'utilité opérationnelle de l'outil avec les risques de détournement à des fins malveillantes. Pour les entreprises de sécurité partenaires, un tel modèle pourrait accélérer la détection de vulnérabilités, l'analyse de malwares et la réponse aux incidents, des tâches aujourd'hui largement manuelles et chronophages. La course entre OpenAI et Anthropic sur ce segment illustre une tendance plus large : les grands laboratoires d'IA cherchent à s'imposer dans des secteurs verticaux à haute valeur ajoutée, après avoir dominé les usages généralistes. La cybersécurité, marché mondial estimé à plusieurs centaines de milliards de dollars, attire également Google, Microsoft et des acteurs spécialisés comme CrowdStrike ou Palo Alto Networks, déjà engagés dans l'intégration de l'IA dans leurs plateformes. La rapidité de la réplique d'OpenAI suggère que ce segment est désormais considéré comme stratégique par les deux entreprises.

UELes entreprises européennes de cybersécurité pourraient accéder à ces modèles spécialisés via des partenariats, accélérant la détection de vulnérabilités et la réponse aux incidents sur le marché européen.

SécuritéActu
1 source
Ghost Murmur : l’IA secrète de la CIA qui entend votre coeur à 65 km
4Le Big Data 

Ghost Murmur : l’IA secrète de la CIA qui entend votre coeur à 65 km

La CIA aurait utilisé pour la première fois sur le terrain un système de détection biométrique à longue portée baptisé Ghost Murmur lors d'une opération de sauvetage en Iran en avril 2026. Un pilote américain abattu au-dessus du territoire iranien a survécu deux jours dans une zone montagneuse désertique, caché dans une crevasse, sans que les moyens de recherche classiques ne parviennent à le localiser précisément. Sa balise de survie standard ne suffisait pas. C'est alors que Ghost Murmur est entré en action : ce dispositif couplant intelligence artificielle et magnétométrie quantique aurait réussi à détecter la signature électromagnétique émise par son cœur, à une distance annoncée de plusieurs dizaines de kilomètres. Le système, développé par la division Skunk Works de Lockheed Martin, la même unité secrète à l'origine du SR-71 Blackbird et du U-2, analyse les signaux électromagnétiques faibles liés à l'activité cardiaque, filtre le bruit ambiant grâce à des algorithmes poussés, et isole une signature biologique distincte. L'extraction s'est finalement déroulée sans perte humaine côté américain. L'enjeu opérationnel est considérable : Ghost Murmur représente une rupture technologique dans la localisation humaine à distance, en particulier dans des environnements où les moyens conventionnels échouent. Pour les forces spéciales et les agences de renseignement, la capacité de détecter un signe de vie sans contact visuel, sans émetteur actif, et dans un terrain hostile, change fondamentalement les calculs de sauvetage au combat. Le désert iranien s'est révélé un environnement favorable au système : peu d'interférences électromagnétiques, fort contraste thermique nocturne entre un corps vivant et le sol froid, faible densité de signaux parasites. Les analystes ont croisé les données pour confirmer la position avant de lancer l'extraction, ce qui suggère un processus de validation multi-source plutôt qu'une détection automatique immédiate. Ghost Murmur s'inscrit dans une tendance plus large de militarisation de la biométrie et des capteurs quantiques, un domaine dans lequel les États-Unis investissent massivement depuis plusieurs années pour maintenir leur supériorité dans les opérations spéciales. La magnétométrie quantique, qui repose sur des matériaux ultra-sensibles capables de mesurer des champs magnétiques infimes, était jusqu'ici principalement étudiée en laboratoire ou dans des contextes médicaux. Son déploiement terrain ouvre des perspectives qui dépassent le seul sauvetage de pilotes : surveillance de périmètre, détection d'infiltration, voire ciblage. Des tests sur des plateformes aériennes militaires seraient déjà en cours. Mais la technologie reste en phase d'expérimentation avancée, et ses limites, notamment le temps d'analyse des algorithmes et la nécessité de zones peu saturées en signaux, encadrent encore son champ d'application réel.

SécuritéActu
1 source