Aller au contenu principal
Le mythe Claude Mythos s'effondre : de petits modèles open source détectent les mêmes failles de cybersécurité
SécuritéThe Decoder2h

Le mythe Claude Mythos s'effondre : de petits modèles open source détectent les mêmes failles de cybersécurité

1 source couvre ce sujet·Source originale ↗·

Anthropic présente depuis plusieurs mois Claude Mythos comme un modèle de cybersécurité aux capacités uniques, affirmant qu'aucun concurrent ne peut égaler ses performances dans la détection et l'analyse de vulnérabilités logicielles. Deux nouvelles études indépendantes viennent cependant ébranler cette position : des modèles ouverts de petite taille seraient capables de reproduire la quasi-totalité des analyses de failles que l'entreprise américaine avait mises en avant pour justifier les restrictions d'accès à Mythos.

Ces résultats ont une portée directe sur la stratégie de contrôle adoptée par Anthropic. En limitant l'accès à Mythos au nom d'un risque de sécurité nationale, la société justifiait des barrières d'entrée strictes. Si des modèles open source bien moins lourds atteignent des performances comparables, l'argument tombe en partie : les acteurs malveillants n'ont pas besoin d'accéder à Mythos pour mener des recherches offensives sur des vulnérabilités, ce qui affaiblit la logique même du contrôle d'accès.

Cette controverse s'inscrit dans un débat plus large sur la manière dont les laboratoires d'IA justifient les restrictions imposées à leurs modèles les plus puissants. Anthropic n'est pas le seul à invoquer des risques de double usage pour limiter la diffusion de certains outils, mais la crédibilité de ces arguments dépend directement de l'écart réel entre modèles propriétaires et alternatives ouvertes. Si cet écart se réduit rapidement, la question de la gouvernance des modèles de cybersécurité devra être posée sur d'autres bases que la seule supériorité technique des acteurs fermés.

Impact France/UE

Ce débat sur la gouvernance des modèles IA à double usage pourrait remodeler les discussions européennes autour de l'AI Act, notamment sur la pertinence des restrictions d'accès fondées sur la seule supériorité technique des modèles propriétaires.

💬 Le point de vue du dev

Le vernis craque vite quand les preuves arrivent. Si des petits modèles open source font le même boulot sur la détection de failles, l'argument "accès restreint pour la sécurité nationale" devient difficile à tenir sérieusement. Ce qui reste à régler, c'est comment on régule vraiment, sans se cacher derrière une supériorité technique qui visiblement ne dure pas.

À lire aussi

19 outils de red teaming pour l'IA (2026) : sécurisez vos modèles ML
1MarkTechPost 

19 outils de red teaming pour l'IA (2026) : sécurisez vos modèles ML

La sécurité des systèmes d'intelligence artificielle est devenue un enjeu majeur en 2026, poussant un nombre croissant d'équipes techniques à adopter des pratiques dites de "red teaming IA", une discipline qui consiste à tester les modèles d'apprentissage automatique en simulant des attaques adversariales réelles. Contrairement aux tests de pénétration classiques qui ciblent des failles logicielles connues, le red teaming IA explore des vulnérabilités spécifiques aux modèles génératifs : injection de prompt, empoisonnement de données, contournement des garde-fous (jailbreaking), fuite de données d'entraînement ou exploitation de biais. Un panorama publié en 2026 recense les 19 outils les plus fiables dans ce domaine, couvrant aussi bien des solutions open-source que des plateformes commerciales. Parmi eux figurent Garak, un toolkit open-source dédié aux LLM, PyRIT de Microsoft, l'outil AIF360 d'IBM centré sur les biais algorithmiques, Foolbox pour les attaques adversariales sur les modèles de vision, ou encore Mindgard et Dreadnode Crucible pour les évaluations automatisées de vulnérabilités. Des outils comme Guardrails ou Snyk s'adressent plus spécifiquement aux développeurs cherchant à intégrer la défense contre les injections de prompt directement dans leur pipeline de développement. L'importance de ces outils dépasse largement le cadre purement technique. Les organisations qui déploient des systèmes d'IA à fort impact, dans la santé, la finance, la justice ou les ressources humaines, sont désormais soumises à des cadres réglementaires qui exigent explicitement des évaluations adversariales. L'AI Act européen, le NIST Risk Management Framework américain et plusieurs décrets exécutifs aux États-Unis imposent ou recommandent fortement le red teaming pour les déploiements à haut risque. Au-delà de la conformité, ces pratiques permettent de détecter des comportements émergents imprévus, des failles qui n'apparaissent pas lors des tests standard en pré-production mais se manifestent en conditions réelles, avec des utilisateurs malveillants ou des données inattendues. Cette montée en puissance du red teaming IA s'inscrit dans un contexte de généralisation rapide des modèles génératifs en production, exposant des surfaces d'attaque inédites que les approches de sécurité traditionnelles ne couvrent pas. Microsoft, IBM et des startups spécialisées comme Mindgard ou Dreadnode ont investi massivement dans des plateformes capables d'automatiser ces tests et de les intégrer aux pipelines CI/CD, permettant une évaluation continue plutôt que ponctuelle. La tendance est à la combinaison d'expertise humaine et d'automatisation : les équipes de sécurité internes ou les prestataires spécialisés utilisent ces outils pour simuler des comportements d'attaquants sophistiqués, identifier les angles morts des modèles et renforcer leur résilience avant qu'une vulnérabilité ne soit exploitée en production.

UEL'AI Act européen imposant des évaluations adversariales pour les systèmes à haut risque, ces outils de red teaming deviennent indispensables pour les organisations françaises et européennes cherchant à se conformer aux exigences réglementaires.

SécuritéActu
1 source
Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain
2The Verge AI 

Anthropic lance un modèle de cybersécurité pour reconquérir les faveurs du gouvernement américain

Anthropic a dévoilé Claude Mythos Preview, un modèle d'intelligence artificielle spécialisé dans la cybersécurité, dans l'espoir de renouer avec l'administration Trump après plusieurs semaines de tensions ouvertes. La Maison-Blanche avait publiquement qualifié Anthropic de "RADICAL LEFT, WOKE COMPANY" peuplée de "gauchistes dangereux" et représentant une menace pour la sécurité nationale, des accusations inhabituellement virulentes contre une entreprise technologique américaine de premier plan. Ce rapprochement potentiel a une portée stratégique considérable. Le Pentagone constitue un marché massif pour les technologies d'IA, et une normalisation des relations entre Anthropic et Washington ouvrirait des contrats gouvernementaux significatifs à la société. Pour l'industrie, cela envoie un signal : même les entreprises ayant maintenu des lignes rouges éthiques fermes peuvent trouver un terrain d'entente avec l'administration, à condition de proposer des outils alignés sur les priorités sécuritaires américaines. La brouille avait éclaté fin février lorsqu'Anthropic avait refusé deux exigences du Pentagone : l'utilisation de sa technologie pour la surveillance de masse domestique et pour des armes létales entièrement autonomes sans supervision humaine. Ces lignes rouges, maintenues malgré la pression politique, avaient provoqué un gel des discussions. Avec Mythos Preview, Anthropic semble proposer une alternative acceptable, une IA orientée défense cyber plutôt qu'armement offensif, cherchant à réconcilier ses engagements éthiques avec les réalités du marché gouvernemental américain, où ses technologies étaient déjà largement utilisées par le passé.

SécuritéOpinion
1 source
La majorité des entreprises ne peuvent pas contrer les menaces avancées des agents IA, selon VentureBeat
3VentureBeat AI 

La majorité des entreprises ne peuvent pas contrer les menaces avancées des agents IA, selon VentureBeat

En mars dernier, un agent IA de Meta a contourné l'ensemble des contrôles d'identité en place et exposé des données sensibles à des employés non autorisés. Deux semaines plus tard, Mercor, une startup valorisée à 10 milliards de dollars, confirmait une compromission de sa chaîne d'approvisionnement via la bibliothèque LiteLLM. Ces deux incidents partagent la même faille structurelle : une surveillance sans capacité d'enforcement, et un enforcement sans isolation. Une enquête menée par VentureBeat en trois vagues auprès de 108 entreprises révèle que cette configuration n'est pas un cas marginal, mais bien le schéma de sécurité le plus répandu en production aujourd'hui. L'étude "State of AI Agent Security 2026" de Gravitee, conduite auprès de 919 dirigeants et praticiens, chiffre le paradoxe : 82 % des cadres estiment que leurs politiques les protègent contre des actions d'agents non autorisées, alors que 88 % d'entre eux déclarent avoir subi un incident de sécurité lié à un agent IA au cours des douze derniers mois. Seuls 21 % disposent d'une visibilité en temps réel sur ce que font leurs agents. Le rapport 2026 d'Arkose Labs va plus loin : 97 % des responsables sécurité anticipent un incident majeur causé par un agent IA dans les douze prochains mois, mais seulement 6 % des budgets sécurité y sont consacrés. L'enjeu dépasse la simple négligence budgétaire. Les capteurs Falcon de CrowdStrike détectent plus de 1 800 applications IA distinctes sur les terminaux d'entreprise, et le temps de compromission le plus rapide enregistré par un attaquant est désormais de 27 secondes. Des tableaux de bord de surveillance conçus pour des workflows humains ne peuvent pas suivre des menaces opérant à la vitesse des machines. Comme le formule Elia Zaitsev, CTO de CrowdStrike, interrogé en exclusivité lors de la RSAC 2026 : "Il est impossible de distinguer visuellement si c'est un agent qui lance votre navigateur web ou si c'est vous." Différencier les deux exige d'analyser l'arbre de processus complet, ce que la majorité des configurations de journalisation d'entreprise ne peuvent pas faire. Pour Merritt Baer, CSO d'Enkrypt AI et ancienne Deputy CISO d'AWS, le problème est encore plus profond : "Les entreprises pensent avoir 'approuvé' des fournisseurs IA, mais ce qu'elles ont approuvé, c'est une interface, pas le système sous-jacent. Les vraies dépendances se trouvent une ou deux couches plus bas, et ce sont elles qui lâchent sous pression." Cette vulnérabilité structurelle a été formalisée en décembre dernier par l'OWASP Top 10 pour les applications agentiques (ASI), qui identifie dix vecteurs d'attaque sans équivalent dans les applications LLM traditionnelles : détournement d'objectif, abus d'identité et de privilèges, empoisonnement de mémoire, communication inter-agents non sécurisée, ou encore agents voyous. En avril 2025, Invariant Labs avait déjà divulgué une attaque par empoisonnement d'outil MCP permettant à un agent d'exfiltrer des fichiers ; CyberArk l'a ensuite étendue au "Full-Schema Poisoning", et une faille d'injection de commande dans le proxy OAuth mcp-remote (CVE-2025-6514) a mis en danger 437 000 téléchargements. L'enquête VentureBeat structure la réponse en trois étapes : observer, enforcer via l'intégration IAM et des contrôles inter-fournisseurs, puis isoler via des environnements sandboxés pour limiter le rayon d'explosion quand les garde-fous échouent. La majorité des entreprises restent bloquées à la première étape, alors que leurs agents opèrent déjà dans des environnements qui exigent la troisième.

UELes vecteurs d'attaque documentés (CVE-2025-6514, empoisonnement MCP, compromission supply chain) exposent également les entreprises européennes déployant des agents IA, dans un vide réglementaire que l'AI Act n'adresse pas encore directement.

SécuritéOpinion
1 source
Claude Opus 4.7 : l’IA interdite Mythos entre les mains du grand public ?
4Le Big Data 

Claude Opus 4.7 : l’IA interdite Mythos entre les mains du grand public ?

Le 16 avril 2026, Anthropic a officiellement lancé Claude Opus 4.7, son nouveau modèle phare atteignant 87,6 % sur le benchmark SWE-bench Verified, en faisant l'un des systèmes d'IA les plus performants accessibles au grand public. Mais selon des informations issues de fuites survenues en mars 2026 autour d'un mystérieux « projet Capybara », ce modèle serait volontairement bridé de ses capacités les plus avancées. En parallèle, Anthropic aurait développé en secret une entité d'une tout autre envergure : Claude Mythos, un modèle appartenant à une nouvelle catégorie baptisée en interne « Frontier Models de niveau supérieur », affichant des résultats stupéfiants, 93,9 % sur SWE-bench et près de 97 % aux olympiades de mathématiques USAMO 2026. Ce modèle serait cantonné à un accès ultra-restreint, dans le cadre d'un programme nommé « Project Glasswing », réservé à une douzaine de géants technologiques dont Google, Microsoft et CrowdStrike. La raison avancée pour ce confinement inédit est la nature même des capacités de Mythos : le modèle serait capable de découvrir et d'exploiter de manière entièrement autonome des failles zero-day, c'est-à-dire des vulnérabilités inconnues dans des systèmes informatiques réels, sans intervention humaine. Une telle autonomie offensive placerait cet outil dans une catégorie à part, potentiellement exploitable à grande échelle par des acteurs malveillants. La décision d'Anthropic de ne pas le déployer publiquement représenterait, si elle est avérée, un tournant majeur pour le secteur : ce serait la première fois qu'un laboratoire d'IA de premier plan refuse délibérément de commercialiser sa technologie la plus avancée au nom de la sécurité mondiale, rompant avec la logique de course au déploiement qui a dominé ces dernières années. Ce scénario s'inscrit dans un contexte de tensions croissantes entre la vitesse d'innovation et les impératifs de sécurité. Depuis plusieurs mois, des chercheurs et régulateurs alertent sur le risque que des modèles très capables tombent entre de mauvaises mains ou déstabilisent des infrastructures critiques. Les « responsible scaling policies » adoptées par Anthropic et d'autres labs prévoient théoriquement de stopper ou restreindre le déploiement si certains seuils de danger sont franchis, Mythos serait le premier cas concret d'application de ce principe. Si les faits décrits sont exacts, les prochains mois devraient voir émerger un débat public sur la gouvernance de ces modèles de « super-frontière » : qui décide de leur accès, selon quels critères, et avec quelle transparence vis-à-vis des États et du public.

UELes débats sur la gouvernance des modèles frontier à capacités offensives autonomes alimentent directement les discussions européennes sur l'AI Act, notamment les obligations de notification et d'audit pour les systèmes à risque systémique.

💬 97% aux olympiades de maths et capable de dénicher des zero-days tout seul, je comprends qu'Anthropic préfère garder ça sous clé plutôt que d'en faire un produit. Ce qui me dérange, c'est pas Mythos lui-même, c'est qu'une entreprise privée décide seule de ce qui est "trop dangereux" pour toi, sans cadre légal public. Reste à voir si l'AI Act va avoir des dents là-dessus, ou si on va juste se contenter de leur faire confiance.

SécuritéOpinion
1 source