Aller au contenu principal
SécuritéNext INpact1h

Mistral prépare son IA chasseuse de failles, Microsoft déploie déjà son armée d’agents

Résumé IASource uniqueImpact UE
Source originale ↗·
Mistral prépare son IA chasseuse de failles, Microsoft déploie déjà son armée d’agents
▶ Voir sur YouTube

Mistral AI travaille au développement d'un modèle d'intelligence artificielle dédié à la détection de failles de sécurité dans le code de banques européennes, selon des informations rapportées par Bloomberg. La startup française, qui collaborait déjà avec ses clients du secteur bancaire sur ces problématiques avant le lancement de Mythos par Anthropic en avril dernier, prépare désormais une version "clé en main" pour un déploiement plus large. En parallèle, Microsoft a dévoilé MDASH, pour "Microsoft Security multi-model agentic scanning harness", un système de sécurité agentique mobilisant plusieurs modèles d'IA complémentaires et une centaine d'agents spécialisés. Sur le benchmark CyberGym, qui regroupe plus de 1 500 tâches reproduisant des vulnérabilités réelles, MDASH affiche un taux de réussite de 88,45 %, soit environ 5 points de mieux que son concurrent le plus proche. Le système a déjà permis d'identifier 16 vulnérabilités dans l'authentification et l'infrastructure réseau de Windows, dont 4 failles critiques permettant l'exécution de code à distance.

La détection automatisée de vulnérabilités par IA est en train de passer du statut d'expérimentation de laboratoire à celui d'outil industriel déployé à grande échelle, c'est le constat que Microsoft formule explicitement. Pour les entreprises et institutions gérant des infrastructures critiques, l'enjeu est considérable : des systèmes capables d'ausculter des millions de lignes de code en continu représentent un saut qualitatif majeur face aux audits manuels. Mais cette puissance soulève aussi une question de dépendance stratégique : qui contrôle ces outils, et sur quel code s'appliquent-ils ?

C'est précisément ce point qu'Arthur Mensch, directeur général de Mistral, a soulevé cette semaine devant la commission d'enquête sur les vulnérabilités numériques à l'Assemblée nationale. Sans nommer Anthropic, il a pointé le risque de confier le code et les bases de données de l'armée française à un modèle étranger comme Mythos, actuellement distribué au compte-gouttes auprès d'organisations majoritairement américaines, sans accès accordé à l'Europe. L'argument est limpide : la cybersécurité par IA est un sujet régalien, et la souveraineté technologique devient un critère non négociable. Mistral se positionne ainsi comme alternative européenne crédible dans une course qui oppose déjà Anthropic, OpenAI avec son initiative Daybreak, et désormais Microsoft. La question des certifications, des audits et de la gouvernance de ces outils devrait rapidement s'imposer dans les débats réglementaires européens.

Impact France/UE

Mistral AI développe un modèle de cybersécurité souverain ciblant les banques européennes et les infrastructures militaires françaises, tandis qu'Arthur Mensch alerte l'Assemblée nationale sur le risque stratégique de confier le code de l'armée française à des modèles américains sans accès garanti à l'Europe.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Plus de 100 agents IA mis en compétition par Microsoft pour détecter des failles dans Windows
1The Decoder 

Plus de 100 agents IA mis en compétition par Microsoft pour détecter des failles dans Windows

Microsoft a développé un système baptisé MDASH qui mobilise plus d'une centaine d'agents IA spécialisés, mis en compétition les uns contre les autres pour détecter des failles de sécurité dans ses logiciels. Lors du dernier Patch Tuesday, ce dispositif a permis d'identifier 16 vulnérabilités dans Windows en une seule session, dont quatre classées critiques. Microsoft ne divulgue pas quels modèles d'IA alimentent le système, mais l'ampleur du déploiement témoigne d'une infrastructure de recherche offensive d'envergure inédite. Cette approche marque un changement de paradigme dans la manière dont les grandes entreprises tech traquent leurs propres failles. Plutôt que de s'appuyer uniquement sur des équipes humaines ou des outils d'analyse statique, Microsoft automatise désormais une partie du "red teaming", la simulation d'attaques internes pour trouver des faiblesses avant les pirates. Quatre vulnérabilités critiques découvertes en un seul cycle de patch représentent un gain de sécurité concret pour les centaines de millions d'utilisateurs Windows dans le monde. La course aux agents IA autonomes capables de raisonner sur du code complexe s'intensifie dans tout le secteur. Google, OpenAI et des startups spécialisées comme Endor Labs investissent massivement dans des outils similaires. Pour Microsoft, qui gère l'un des écosystèmes logiciels les plus ciblés au monde, industrialiser la détection de vulnérabilités via l'IA devient une nécessité stratégique face à des attaquants qui utilisent eux-mêmes ces technologies. MDASH pourrait préfigurer un futur où la sécurité logicielle repose sur des armées d'agents se testant mutuellement en continu.

UELes vulnérabilités détectées par MDASH dans Windows, dont quatre critiques, concernent directement les centaines de millions d'utilisateurs européens de cet OS, améliorant concrètement leur niveau de sécurité numérique.

💬 16 vulnérabilités en un cycle de patch, dont 4 critiques, c'est du solide. L'idée de mettre des agents en compétition pour simuler des attaques, le red teaming automatisé à grande échelle, c'est le genre de truc qu'on voyait venir mais pas à ce rythme. Bon, Microsoft garde ses modèles secrets, ce qui veut dire que tout le monde travaille à cache-cache pendant que les attaquants font exactement pareil de leur côté.

SécuritéOpinion
1 source
Microsoft publie un toolkit open source pour sécuriser les agents IA en production
2AI News 

Microsoft publie un toolkit open source pour sécuriser les agents IA en production

Microsoft a publié un toolkit open-source destiné à sécuriser les agents d'intelligence artificielle en temps réel au sein des environnements d'entreprise. Baptisé runtime security toolkit, cet outil s'intercale entre le modèle de langage et le réseau d'entreprise pour surveiller, évaluer et bloquer les actions des agents autonomes au moment précis où ils tentent de les exécuter. Concrètement, lorsqu'un agent IA déclenche un appel vers un outil externe, une base de données, un pipeline CI/CD ou un dépôt cloud, le toolkit intercepte la requête, la compare à un ensemble de règles de gouvernance centralisées, et bloque l'action si elle enfreint la politique définie. Un agent autorisé uniquement à consulter un inventaire qui tenterait de passer une commande d'achat se verrait immédiatement arrêté, et l'événement serait journalisé pour révision humaine. L'enjeu est considérable pour les équipes de sécurité et les développeurs. Les systèmes d'IA d'entreprise ne se contentent plus de répondre à des questions : ils exécutent du code, envoient des e-mails, modifient des fichiers et interagissent avec des API critiques sans intervention humaine directe. Les méthodes traditionnelles, analyse statique du code, scan de vulnérabilités avant déploiement, sont structurellement inadaptées aux modèles de langage non-déterministes. Une seule attaque par injection de prompt ou une hallucination mal orientée peut suffire à écraser une base de données ou exfiltrer des données clients. Le toolkit de Microsoft découple la politique de sécurité de la logique applicative : les développeurs n'ont plus à hardcoder des règles de sécurité dans chaque prompt, et les équipes sécurité disposent d'une piste d'audit vérifiable pour chaque décision autonome du modèle. Le choix de publier ce toolkit sous licence open-source n'est pas anodin. Les développeurs construisent aujourd'hui des workflows autonomes en combinant des bibliothèques open-source, des frameworks variés et des modèles tiers, Anthropic, Meta, Mistral ou d'autres. Un outil propriétaire lié à l'écosystème Microsoft aurait probablement été contourné au profit de solutions non vérifiées, sous pression des délais. En ouvrant le code, Microsoft permet à n'importe quelle organisation, qu'elle tourne sur des modèles locaux, sur Azure ou sur des architectures hybrides, d'intégrer ces contrôles de gouvernance sans dépendance fournisseur. L'ouverture invite aussi la communauté cybersécurité à contribuer et à empiler des outils commerciaux, tableaux de bord, intégrations de réponse aux incidents, par-dessus cette fondation commune, accélérant la maturité de tout l'écosystème. À mesure que les agents autonomes s'imposent dans les entreprises, ce type de couche de sécurité d'infrastructure pourrait devenir un standard incontournable.

UELes entreprises européennes déployant des agents IA peuvent adopter cet outil open-source pour répondre aux exigences de gouvernance et de traçabilité imposées par l'AI Act.

SécuritéOpinion
1 source
AWS et Cisco AI Defense sécurisent les déploiements MCP et A2A pour les agents IA
3AWS ML Blog 

AWS et Cisco AI Defense sécurisent les déploiements MCP et A2A pour les agents IA

Cisco et AWS ont annoncé un partenariat pour sécuriser les déploiements d'agents IA en entreprise, ciblant en particulier deux protocoles devenus centraux dans l'industrie : le Model Context Protocol (MCP), lancé en novembre 2024, et le protocole Agent-to-Agent (A2A), introduit en avril 2025. Le MCP permet aux agents IA de se connecter à des sources de données et des API externes, tandis que l'A2A autorise des agents autonomes à communiquer entre eux sans intervention humaine. Les grandes entreprises gèrent aujourd'hui des dizaines, voire des centaines de serveurs MCP simultanément, et cette prolifération rapide a ouvert trois failles de sécurité majeures : absence de visibilité sur les outils déployés, incapacité des équipes de sécurité à réviser manuellement chaque composant au rythme des déploiements, et manque de journaux d'audit exigés par les cadres réglementaires. La réponse conjointe des deux groupes repose sur l'AI Registry, un projet open source soutenu par AWS, intégré à la plateforme Cisco AI Defense, qui automatise l'analyse de sécurité de chaque serveur MCP, agent IA et Agent Skill avant toute mise en production. L'impact concret est significatif pour les équipes de sécurité et les directions conformité. Actuellement, les processus de révision manuelle allongent chaque déploiement d'application IA de plusieurs semaines, créant un arriéré qui s'accumule à mesure que l'adoption de l'IA s'accélère. Avec ce système, dès qu'un nouveau composant est enregistré dans le registre centralisé, un scanner analyse automatiquement le code, les patterns de sécurité et les éventuelles vulnérabilités, puis génère un rapport détaillé. Si des problèmes sont détectés, le composant est immédiatement désactivé et marqué "security-pending", bloquant tout accès jusqu'à validation par un administrateur. Cette automatisation concerne aussi bien les serveurs MCP donnant accès à des bases de données que les agents A2A orchestrant des workflows complexes. Sur le plan réglementaire, les organisations s'exposaient auparavant à des sanctions sous les cadres SOX et RGPD faute de traçabilité suffisante sur les agents autonomes, une exposition que les équipes de conformité peinaient à quantifier. Cette initiative s'inscrit dans un contexte de montée en puissance rapide de l'IA agentique, qui transforme profondément les infrastructures d'entreprise. La prolifération non contrôlée de serveurs MCP et d'agents tiers représente un vecteur d'attaque croissant : du code malveillant ou des patterns non sécurisés peuvent s'introduire dans la chaîne d'approvisionnement logicielle sans qu'aucune revue manuelle ne puisse suivre le rythme. Akshay Bhargava, vice-président produit IA chez Cisco, souligne que ce partenariat vise à étendre la protection de niveau entreprise aux organisations de toute taille via les registres publics. Le marché de la sécurité pour l'IA agentique est encore naissant, et cette collaboration entre un géant du cloud et un leader du réseau envoie un signal fort : la gouvernance des agents IA devient un prérequis incontournable pour tout déploiement industriel sérieux.

UELes organisations européennes déployant des agents IA s'exposaient à des sanctions RGPD faute de traçabilité sur les agents autonomes ; cette solution automatise les journaux d'audit requis par la conformité européenne.

SécuritéActu
1 source
Microsoft sort Agent 365 de sa phase de test alors que l'IA non officielle devient une menace pour les entreprises
4VentureBeat AI 

Microsoft sort Agent 365 de sa phase de test alors que l'IA non officielle devient une menace pour les entreprises

Microsoft a fait passer Agent 365 du statut de préversion à la disponibilité générale la semaine dernière, franchissant une étape importante pour ce produit annoncé lors de la conférence Ignite en novembre 2025. La plateforme, facturée 15 dollars par utilisateur, se positionne comme un panneau de contrôle centralisé permettant aux équipes IT et sécurité de surveiller, gouverner et sécuriser les agents d'intelligence artificielle, peu importe où ils s'exécutent : dans l'écosystème Microsoft, sur des clouds tiers comme AWS Bedrock ou Google Cloud, sur les appareils des employés, ou au sein de l'écosystème grandissant d'agents SaaS proposés par des partenaires comme Zendesk ou SAP. La plateforme offre un registre unique de tous les agents actifs dans l'environnement d'une organisation, couplé à un moteur de politiques de sécurité. Ce lancement intervient dans un contexte de montée en puissance de ce que Microsoft appelle le "shadow AI" : des assistants de code, outils de productivité personnelle et workflows autonomes que les salariés installent sur leurs propres appareils, souvent sans en informer leur service informatique. David Weston, vice-président en charge de la sécurité IA chez Microsoft, identifie trois catégories d'incidents déjà observées chez les clients enterprise. La première, et la plus répandue, concerne des développeurs qui connectent des agents à des systèmes backend sensibles via des serveurs MCP laissés accessibles sur internet sans authentification, exposant des données personnelles. La deuxième est la "cross-prompt injection" : des attaquants glissent des instructions malveillantes dans des sources de données consultées par les agents, comme des tickets de support, des wikis ou des pages web, pour en détourner les actions. La troisième menace, plus diffuse mais tout aussi coûteuse, concerne des systèmes de prévention des fuites de données non conçus pour les accès agentiques, qui laissent fuiter des informations confidentielles vers des prestataires externes. Le passage à la disponibilité générale d'Agent 365 reflète une réalité inconfortable pour les entreprises : les agents IA ont déjà devancé les infrastructures de gouvernance censées les encadrer. Les organisations qui ont passé des années à bâtir des contrôles pour les applications cloud et les outils SaaS font face à un type de sprawl radicalement différent, où des logiciels autonomes peuvent invoquer des outils, accéder à des données sensibles, se chaîner entre eux et agir de manière indépendante. Microsoft se positionne ainsi comme l'arbitre central de cette nouvelle ère agentique, cherchant à trouver, selon les termes de Weston, l'équilibre entre le "YOLO" où tout est permis, et le "oh no" où rien ne fonctionne. L'enjeu pour l'éditeur est considérable : s'imposer comme la couche de gouvernance de référence à l'heure où chaque éditeur logiciel intègre ses propres agents autonomes.

UELes entreprises européennes utilisant Microsoft 365 sont directement exposées aux risques de 'shadow AI' décrits (serveurs MCP non sécurisés, injections de prompts croisées), et peuvent désormais évaluer Agent 365 comme couche de gouvernance, dans un contexte où l'AI Act impose des exigences croissantes de traçabilité et de contrôle sur les systèmes IA déployés.

SécuritéOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour