Aller au contenu principal
Comment survivre à la déferlante à venir des vulnérabilités identifiées par IA ? (3/3)
SécuritéNext INpact1h

Comment survivre à la déferlante à venir des vulnérabilités identifiées par IA ? (3/3)

1 source couvre ce sujet·Source originale ↗·

Deux cent cinquante responsables de la sécurité des systèmes d'information ont cosigné en urgence, le week-end du 12 avril 2026, un rapport intitulé « La tempête de vulnérabilités liées à l'IA : créer un programme de sécurité Mythosready ». Ce document, rédigé en un seul week-end par plus de 60 contributeurs puis relu par 250 RSSI, répond directement à l'annonce, le 7 avril, de Mythos Preview, l'intelligence artificielle spécialisée en cybersécurité développée par Anthropic. Cinquante entreprises et organismes du projet Glasswing disposent d'un accès bêta à cet outil pendant 90 jours, au terme desquels Anthropic rendra publiques toutes les vulnérabilités identifiées. Parmi les signataires figurent des personnalités de premier plan : Jen Easterly, ancienne directrice de la CISA, Chris Inglis, premier National Cyber Director des États-Unis, et Rob Joyce, ex-patron de l'unité de hacking offensif de la NSA, TAO. Le rapport a été publié par le SANS Institute et la Cloud Security Alliance.

L'enjeu central est la compression dramatique du délai entre la découverte d'une faille et son exploitation active. D'après les données de zerodayclock.com, ce délai moyen est passé de 2,3 ans en 2019 à moins d'un jour en 2026, avec une accélération fulgurante au cours des seules dernières semaines : 1,6 jour début mars, 20 heures mi-avril, 10 heures une semaine plus tard. Autrement dit, les équipes de défense disposent désormais de quelques heures pour déployer des correctifs après la divulgation publique d'une vulnérabilité. Si Anthropic annonce en bloc les résultats des 50 bêta-testeurs de Mythos Preview, des centaines de failles pourraient être rendues publiques simultanément, créant une situation sans précédent pour les équipes sécurité mondiales. Le rapport s'adresse explicitement à ceux qui « doivent se présenter lundi matin avec un plan crédible ».

Ce contexte s'inscrit dans une trajectoire documentée d'escalade des capacités offensives basées sur les grands modèles de langage. En juin 2025, XBOW devenait le premier système autonome à prendre la tête du classement du programme de bug bounty de HackerOne, surpassant tous les hackers humains. En août, l'IA Big Sleep de Google identifiait 20 vulnérabilités zero-day dans des logiciels open source. Le challenge AIxCC de la DARPA a permis de détecter 54 failles dans 54 projets distincts. Sur le kernel Linux, le rythme de découverte par IA est passé de 2 bugs par semaine à 10 par jour. Mythos Preview représente l'étape suivante de cette progression : une IA agentique dédiée, entre les mains de dizaines d'organisations, capable d'analyser des bases de code à une échelle et une vitesse inatteignables pour des équipes humaines. La question posée par ce rapport n'est plus de savoir si cette déferlante aura lieu, mais si les défenseurs auront les moyens d'y répondre en temps réel.

Impact France/UE

Les RSSI et équipes sécurité françaises et européennes doivent anticiper d'ici 90 jours une divulgation simultanée de centaines de vulnérabilités identifiées par Mythos Preview, avec des fenêtres de réaction réduites à quelques heures pour déployer des correctifs.

À lire aussi

Amazon utilise des agents IA pour la détection de vulnérabilités à grande échelle
1Amazon Science 

Amazon utilise des agents IA pour la détection de vulnérabilités à grande échelle

En 2025, la base de données nationale des vulnérabilités américaine (NVD) a enregistré plus de 48 000 nouvelles failles de sécurité référencées (CVE), un volume rendu possible en grande partie par la prolifération des outils automatisés de détection. Face à cette explosion, Amazon Web Services a développé RuleForge, un système d'intelligence artificielle agentique conçu pour générer automatiquement des règles de détection à partir d'exemples de code d'exploitation de vulnérabilités. Déployé en production chez AWS, RuleForge affiche une productivité supérieure de 336 % à la création manuelle, tout en conservant le niveau de précision exigé pour des systèmes de sécurité industriels. Les règles produites sont au format JSON et alimentent directement MadPot, le système mondial de "honeypot" d'Amazon qui capture le comportement des attaquants, ainsi que Sonaris, le moteur interne de détection d'exploits suspects. Avant RuleForge, transformer une CVE en règle de détection opérationnelle était un processus entièrement manuel : un analyste téléchargeait le code de preuve de concept, étudiait le mécanisme d'attaque, rédigeait la logique de détection, la validait par itérations successives contre les journaux de trafic, puis soumettait le tout à une revue par un second ingénieur avant déploiement. Ce cycle, rigoureux mais lent, obligeait les équipes à prioriser strictement les vulnérabilités traitées, laissant potentiellement des failles critiques sans couverture. RuleForge comprime ce délai de façon drastique : le système ingère automatiquement le code d'exploitation public, attribue un score de priorité via une analyse de contenu croisée avec des sources de threat intelligence, puis génère en parallèle plusieurs règles candidates via un agent tournant sur AWS Fargate avec Amazon Bedrock. Chaque candidate est évaluée non pas par le modèle qui l'a produite, mais par un agent "juge" distinct, évitant ainsi l'auto-validation biaisée. Les humains restent dans la boucle pour l'approbation finale avant mise en production. Cette architecture reflète une tendance profonde dans la sécurité offensive et défensive : l'automatisation par IA ne remplace pas les experts, elle leur permet de travailler à une échelle autrement inaccessible. AWS anticipe une croissance continue du nombre de CVE à haute sévérité publiées, portée par les mêmes outils d'IA qui accélèrent la découverte de failles côté attaquants. RuleForge représente la réponse symétrique côté défense, en industrialisant la réactivité. L'approche modulaire, avec des agents spécialisés pour la génération, l'évaluation et le raffinement, plutôt qu'un seul modèle monolithique, s'inscrit dans la lignée des architectures multi-agents qui émergent comme standard pour les tâches complexes nécessitant fiabilité et auditabilité. D'autres grands acteurs du cloud font face aux mêmes défis, et la publication par Amazon des détails de RuleForge suggère une volonté de positionner cette approche comme référence sectorielle.

SécuritéActu
1 source
Les IA de détection de vulnérabilités réduisent les coûts de sécurité en entreprise
2AI News 

Les IA de détection de vulnérabilités réduisent les coûts de sécurité en entreprise

L'équipe d'ingénierie de Mozilla Firefox a annoncé avoir identifié et corrigé 271 vulnérabilités de sécurité dans la version 150 du navigateur, grâce à une évaluation menée avec Claude Mythos Preview, le modèle frontier d'Anthropic. Cette collaboration fait suite à un premier partenariat avec Anthropic utilisant Claude Opus 4.6, qui avait permis de détecter 22 corrections sensibles sur le plan sécuritaire dans la version 148. En quelques semaines, l'IA a donc fait remonter des centaines de failles dans un codebase mature et massif, un résultat que des équipes humaines auraient mis des mois à produire. Les ingénieurs de Firefox ont également noté qu'ils n'ont trouvé aucune catégorie de faille, ni aucun niveau de complexité, que l'humain puisse identifier et que le modèle ne puisse pas. Symétriquement, aucun bug détecté par l'IA n'était hors de portée d'un chercheur humain d'élite. Ce résultat renverse une dynamique économique qui favorisait structurellement les attaquants depuis des décennies. La doctrine défensive classique consistait à rendre les attaques suffisamment coûteuses pour décourager tous sauf les acteurs disposant de budgets illimités. Avec l'IA, c'est désormais la découverte de vulnérabilités qui devient bon marché et systématique du côté des défenseurs. Pour les entreprises, le calcul est limpide : dans un environnement réglementaire strict, le coût d'un audit automatisé continu est sans commune mesure avec celui d'une violation de données ou d'une attaque par ransomware. L'automatisation réduit aussi la dépendance aux consultants externes spécialisés, dont la rareté et le coût représentaient jusqu'ici un frein réel pour les équipes de sécurité interne. L'enjeu dépasse largement Firefox. Pendant des années, les chercheurs en sécurité d'élite compensaient les limites du fuzzing automatisé en raisonnant manuellement sur le code source pour détecter des failles logiques, un travail lent, coûteux et contraint par la rareté des experts. L'intégration de modèles comme Mythos Preview supprime cette contrainte humaine. Des outils capables d'un tel raisonnement étaient inimaginables il y a quelques mois. Cette évolution profite aussi aux entreprises incapables de se permettre une réécriture complète de leur base de code C++ en Rust ou dans d'autres langages sécurisés par construction : l'IA leur offre un moyen de sécuriser du code legacy sans engager une refonte financièrement prohibitive. Si d'autres éditeurs de logiciels critiques exposés sur internet adoptent des méthodes similaires, le niveau de référence de la sécurité logicielle pourrait franchir un seuil structurel, réduisant durablement l'avantage offensif dont bénéficiaient jusqu'ici les acteurs malveillants.

UEDans un contexte réglementaire européen strict (NIS2, RGPD), l'audit de sécurité automatisé continu offre aux entreprises européennes une réponse économiquement viable à leurs obligations de conformité et réduit le risque financier lié aux violations de données.

💬 271 failles dans Firefox, en quelques semaines. Depuis des décennies, le bras de fer penchait côté attaque : trouver une faille a toujours coûté moins cher que la corriger, et les équipes sécu passaient leur temps à rendre les attaques suffisamment chères pour décourager les petits budgets, pas les gros. Si l'IA systématise la découverte du côté défenseur, ça change le calcul, et pour les boîtes avec du legacy C++ qu'elles ne peuvent pas réécrire, c'est presque une bouée de sauvetage.

SécuritéOpinion
1 source
Firefox 150 corrige 271 vulnérabilités repérées par Claude Mythos
3Next INpact 

Firefox 150 corrige 271 vulnérabilités repérées par Claude Mythos

Mozilla a annoncé cette semaine que Firefox 150 intègre des correctifs pour 271 vulnérabilités de sécurité, toutes identifiées par Claude Mythos, le dernier modèle d'Anthropic. Ce résultat est issu du projet Glasswing, une initiative d'Anthropic qui donne accès à Mythos à une quarantaine d'entreprises et d'organisations partenaires pour détecter les failles dans leurs logiciels. Mozilla fait partie de ce cercle restreint. L'ampleur du chiffre tranche radicalement avec ce qui avait été accompli auparavant : lorsque Firefox avait utilisé Claude Opus 4.6 pour la version 148 du navigateur, le modèle n'avait alors repéré que 22 vulnérabilités. Avec Mythos, le bond est d'un facteur douze en une seule génération de modèle. Bobby Holley, directeur technique de Firefox, parle de « vertige » face à ce volume, soulignant qu'en 2025, une seule de ces failles aurait suffi à déclencher une alerte maximale. L'impact est considérable pour la sécurité des 150 millions d'utilisateurs de Firefox dans le monde, et plus largement pour toute l'industrie du logiciel. Holley rappelle que les attaquants opèrent avec un avantage asymétrique structurel : il leur suffit de trouver une seule brèche, tandis que les défenseurs doivent couvrir une surface d'attaque bien plus large. Jusqu'ici, les méthodes classiques, outils automatisés, audits internes, bug bounty, permettaient de réduire le risque sans jamais l'éliminer, d'autant que ces mêmes outils sont accessibles aux acteurs malveillants. Avec Mythos, Mozilla affirme n'avoir identifié « aucune catégorie ni aucun niveau de complexité de vulnérabilité » que des humains peuvent détecter et que le modèle ne serait pas capable de repérer. Pour Holley, « les défenseurs ont maintenant une chance de l'emporter, de manière décisive ». Cet épisode s'inscrit dans une évolution plus profonde du rapport entre IA et cybersécurité. Depuis plusieurs années, Mozilla, comme d'autres grands éditeurs, cherche à industrialiser la détection de failles dans des bases de code héritées, notamment des millions de lignes de C++ qu'il est impossible de réécrire rapidement. L'objectif affiché était de faire monter le coût d'exploitation d'une faille pour les attaquants professionnels jusqu'à le rendre prohibitif. Anthropic, de son côté, positionne Glasswing comme une réponse structurelle à la menace IA offensive : si des modèles puissants peuvent être utilisés pour trouver des failles, autant que les défenseurs y aient accès en premier. Holley reste prudent sur un point : il ne croit pas que les prochains modèles découvriront des vulnérabilités hors de portée de la compréhension humaine, Firefox étant conçu pour que le code reste vérifiable par des experts. La vraie question, désormais, est de savoir si les équipes de développement sauront absorber le rythme des correctifs que l'IA rend possible.

UELes utilisateurs européens de Firefox bénéficient directement des 271 correctifs de sécurité, et cette démonstration d'audit massif par IA pourrait devenir une référence pour les exigences du Cyber Resilience Act européen imposant des standards de cybersécurité aux éditeurs de logiciels.

💬 271 failles contre 22 à la génération précédente, ça ne ressemble plus à une amélioration, ça ressemble à un changement de catégorie. Mozilla dit que Mythos ne rate rien qu'un humain pourrait repérer, ce qui est une formulation prudente mais qui dit beaucoup sur ce qu'il repère en plus. Le vrai goulot d'étranglement maintenant, c'est pas la détection, c'est la capacité des équipes à absorber le rythme des correctifs.

SécuritéActu
1 source
Comment se préparer à un incident de système IA et y répondre
4AI News 

Comment se préparer à un incident de système IA et y répondre

Une majorité d'organisations seraient incapables de gérer correctement une crise liée à leurs systèmes d'IA, selon un rapport publié par l'ISACA, association internationale spécialisée dans la gouvernance des systèmes d'information. L'étude révèle que 59 % des professionnels interrogés ne savent pas combien de temps il faudrait à leur organisation pour interrompre un système d'IA en cas d'incident de sécurité. Seuls 21 % affirment pouvoir intervenir en moins de trente minutes. Par ailleurs, 42 % seulement se disent capables d'analyser et d'expliquer un incident grave, et 20 % avouent ignorer qui serait responsable si un système d'IA causait des dommages. À peine 38 % désignent un membre du conseil d'administration ou un dirigeant exécutif comme ultimement responsable. Ces chiffres révèlent une faille structurelle aux conséquences potentiellement graves. Un système d'IA compromis ou défaillant qui continue de fonctionner sans contrôle peut causer des dommages irréversibles, qu'ils soient opérationnels, financiers ou réputationnels. L'incapacité à expliquer un incident aux régulateurs expose également les entreprises à des sanctions légales et à une perte de confiance publique. Ali Sarrafi, PDG de Kovant, une plateforme d'entreprise autonome, souligne que le problème n'est pas le rythme d'adoption de l'IA, mais la manière dont elle est gérée : les systèmes sont intégrés dans des flux de travail critiques sans la couche de gouvernance nécessaire pour superviser leurs actions, identifier les responsables et les stopper instantanément si nécessaire. Plus d'un tiers des organisations n'exigent même pas que leurs employés signalent où et quand ils utilisent l'IA dans leurs livrables, ce qui multiplie les angles morts. La gouvernance de l'IA reste un chantier largement inachevé dans la plupart des secteurs, malgré un durcissement réglementaire qui engage davantage la responsabilité des dirigeants. Si 40 % des répondants indiquent qu'un humain valide la quasi-totalité des actions d'IA avant déploiement et 26 % évaluent les résultats a posteriori, cette vigilance individuelle reste insuffisante en l'absence d'une infrastructure de contrôle solide. Sarrafi plaide pour que les systèmes d'IA soient traités comme des "employés numériques", dotés d'une propriété claire, de chemins d'escalade définis et d'un mécanisme de suspension immédiate en cas de dépassement de seuils de risque. La gouvernance ne peut pas être une réflexion après coup : elle doit être intégrée dès la conception, à chaque niveau de l'architecture. Les organisations qui parviendront à mettre cela en place ne se contenteront pas de réduire les risques, elles seront aussi les mieux positionnées pour déployer l'IA à grande échelle en toute confiance.

UEL'AI Act impose aux organisations déployant des systèmes d'IA à risque élevé en Europe des obligations de gouvernance, de traçabilité et de gestion des incidents, rendant ces lacunes structurelles directement problématiques sur le plan réglementaire.

SécuritéOpinion
1 source