Aller au contenu principal
GPT-5.5 aussi redoutable que Mythos en matière de hacking ? Les tests inquiètent
SécuritéLe Big Data1h

GPT-5.5 aussi redoutable que Mythos en matière de hacking ? Les tests inquiètent

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

L'AI Security Institute a publié fin avril 2026 les résultats de tests comparatifs entre GPT-5.5, le dernier modèle d'OpenAI, et Mythos, le modèle phare d'Anthropic, sur des scénarios de cyberattaque simulés. Sur CyberBench et la simulation britannique TLO en 32 étapes, GPT-5.5 atteint 71,4 % de réussite sur des tâches de niveau expert, contre 68,6 % pour Mythos. Plus révélateur encore : GPT-5.5 a réussi à compléter la simulation TLO de bout en bout dans 2 cas sur 10, Mythos dans 3 cas sur 10. Cette simulation reproduit une cyberattaque complète incluant la reconnaissance, l'exploitation de vulnérabilités, l'élévation de privilèges, les mouvements latéraux et l'analyse cryptographique, soit des opérations normalement réservées à des professionnels de la sécurité offensive.

Ce franchissement de seuil est significatif parce qu'il marque un glissement qualitatif : ces modèles ne se contentent plus d'assister un humain dans une tâche ponctuelle, ils sont désormais capables d'exécuter des chaînes d'attaque complètes et cohérentes sur plusieurs dizaines d'étapes. Une erreur en cours de séquence suffit normalement à faire échouer l'ensemble de la simulation, ce qui rend la réussite partielle de ces deux systèmes d'autant plus notable. Pour les équipes de sécurité défensive, les entreprises et les gouvernements, cela signifie que des capacités offensives jusqu'ici réservées à des groupes d'attaquants expérimentés pourraient devenir accessibles via des interfaces conversationnelles grand public, abaissant drastiquement le niveau technique requis pour mener des intrusions sophistiquées.

Mythos faisait déjà l'objet d'inquiétudes avant la publication de ces résultats : Anthropic lui-même avait appelé à la prudence quant à son déploiement, et la Maison-Blanche avait exprimé des réserves sur les risques d'usage incontrôlé. GPT-5.5 s'invite maintenant dans ce débat avec des performances quasi équivalentes, ce qui complique la gestion du risque : il ne s'agit plus d'un modèle isolé jugé trop puissant, mais d'une tendance de fond touchant les grands laboratoires simultanément. L'écart entre les deux modèles est mince sur les benchmarks, mais GPT-5.5 se distingue par une progression plus régulière à travers les étapes, tandis que Mythos affiche des avancées plus irrégulières. La trajectoire commune des deux systèmes, clairement visible sur les graphiques de l'AI Security Institute, indique que davantage de tokens disponibles se traduit directement par une plus grande profondeur d'exécution dans les simulations d'attaque, ouvrant la question de savoir où se situe la prochaine limite à franchir.

Impact France/UE

Les administrations et entreprises européennes font face à un risque accru d'intrusions sophistiquées facilitées par des interfaces grand public, une menace que l'ENISA et les obligations de l'AI Act sur les systèmes à haut risque devront intégrer en urgence.

💬 Le point de vue du dev

Le score à 71%, c'est presque secondaire. Ce qui compte, c'est qu'il n'y a plus un modèle isolé à surveiller, les deux plus grands labos arrivent au même résultat simultanément, et ça rend la gestion du risque autrement plus compliquée. 2 fois sur 10, 3 fois sur 10, une chaîne d'attaque complète en 32 étapes sans assistance humaine : le niveau d'entrée pour mener une intrusion sophistiquée vient de baisser d'un cran.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Les chercheurs estiment que l'IA devient redoutablement efficace en matière de piratage, même sans Mythos
1The Information AI 

Les chercheurs estiment que l'IA devient redoutablement efficace en matière de piratage, même sans Mythos

Anthropic a développé un nouveau modèle d'IA baptisé Mythos, jugé si performant dans la réalisation de cyberattaques que l'entreprise a décidé de ne pas le rendre public. La société a choisi de le partager uniquement avec de grandes entreprises technologiques sélectionnées, afin qu'elles puissent anticiper et renforcer leurs défenses avant une éventuelle diffusion plus large. Parallèlement, la startup de cybersécurité Buzz, financée par Sequoia Capital, a publié de nouvelles recherches révélant que les modèles d'IA déjà disponibles publiquement sont capables de mener des cyberattaques complexes et autonomes en quelques minutes seulement. Ces résultats sont préoccupants à plusieurs titres. Le fait que des outils existants, accessibles à n'importe qui, puissent automatiser des attaques informatiques sophistiquées sans intervention humaine significative abaisse drastiquement le seuil d'entrée pour les acteurs malveillants. Des individus sans compétences techniques avancées pourraient désormais conduire des offensives qui requéraient auparavant des équipes entières de hackers expérimentés, menaçant aussi bien les entreprises que les infrastructures critiques. La décision d'Anthropic de restreindre Mythos illustre une tension croissante dans l'industrie de l'IA entre innovation ouverte et gestion des risques. Les grands laboratoires sont de plus en plus confrontés à la question de la divulgation responsable de modèles à capacités duales. Que des modèles grand public aient déjà atteint ce niveau de dangerosité offensive souligne l'urgence d'investir massivement dans la cybersécurité défensive, et relance le débat sur la nécessité d'une régulation internationale coordonnée du développement et de la diffusion des modèles d'IA les plus puissants.

UELes entreprises et infrastructures critiques européennes sont directement menacées par la démocratisation des cyberattaques autonomes via IA, renforçant l'urgence d'une régulation internationale coordonnée que la France et l'UE ont intérêt à porter.

💬 La rétention de Mythos fait les gros titres, mais c'est presque pas le sujet. Ce qui compte, c'est que les modèles déjà publics automatisent des attaques sophistiquées en quelques minutes, sans expertise requise. Le seuil d'entrée vient de s'effondrer, et on n'a pas attendu le modèle secret pour ça.

SécuritéOpinion
1 source
2Ars Technica AI 

Les tests Mythos AI du gouvernement britannique distinguent les vraies menaces cyber du battage médiatique

Le gouvernement britannique, via son AI Security Institute (AISI), a publié une évaluation indépendante du modèle Mythos Preview d'Anthropic, centré sur ses capacités en matière de cybersécurité offensive. Cette publication fait suite à l'annonce d'Anthropic la semaine précédente de restreindre l'accès initial à ce modèle à "un groupe limité de partenaires industriels critiques", le temps de préparer sa sortie publique. L'entreprise avait elle-même qualifié Mythos de modèle "remarquablement capable dans les tâches liées à la sécurité informatique". L'AISI confirme que le modèle dépasse les 85 % de réussite sur les défis Capture the Flag de niveau "Apprenti", une série d'épreuves de cybersécurité progressives utilisées depuis début 2023 pour évaluer les modèles d'IA. Sur les tâches individuelles de cybersécurité, Mythos ne se distingue pas fondamentalement des autres modèles frontières récents. Ce qui le différencie en revanche, c'est sa capacité à enchaîner ces tâches en séquences cohérentes et multi-étapes, ce type d'attaque coordonnée étant précisément ce qui permet d'infiltrer complètement un système réel. Cette nuance est cruciale : un modèle capable de relier reconnaissance, exploitation et persistance au sein d'une même session représente un saut qualitatif pour les attaquants potentiels, mais aussi pour les équipes défensives qui cherchent à automatiser les tests de pénétration. L'AISI mène ces évaluations sur Capture the Flag depuis début 2023, à une époque où GPT-3.5 Turbo peinait à résoudre les tâches de niveau débutant. La progression a été régulière depuis, et Mythos marque une nouvelle étape dans cette courbe. La décision d'Anthropic de limiter l'accès initial témoigne d'une stratégie de déploiement prudente face aux risques de mésusage dans un domaine aussi sensible. La publication des résultats par une institution gouvernementale indépendante apporte une crédibilité publique à ces avertissements, au-delà du discours commercial habituel des laboratoires d'IA.

UELes évaluations indépendantes de l'AISI britannique sur les capacités cyber offensives des LLMs pourraient servir de modèle aux régulateurs européens pour les audits de sécurité imposés par l'AI Act.

SécuritéOpinion
1 source
Une « erreur humaine » provoque la fuite de Claude Mythos : le prochain modèle d’Anthropic qui inquiète jusqu’à ses créateurs
3Numerama 

Une « erreur humaine » provoque la fuite de Claude Mythos : le prochain modèle d’Anthropic qui inquiète jusqu’à ses créateurs

Le 26 mars 2026, une erreur de configuration sur le blog officiel d'Anthropic a rendu publiquement accessible un document interne décrivant Claude Mythos, le prochain grand modèle de l'entreprise. La fuite, qualifiée d'« erreur humaine » par Anthropic, a duré suffisamment longtemps pour que des captures d'écran circulent largement sur les réseaux sociaux avant d'être supprimées. Le document révèle que Claude Mythos atteindrait un niveau dit « ASL-4 » sur l'échelle interne d'évaluation des risques de l'entreprise — un seuil jamais franchi jusqu'ici. Ce classement ASL-4 est particulièrement préoccupant car il signifie, selon le cadre de sécurité d'Anthropic lui-même, que le modèle présente des capacités offensives en cybersécurité supérieures à tout ce qui existe actuellement sur le marché. Concrètement, un tel modèle pourrait faciliter des attaques informatiques sophistiquées, voire assister des acteurs malveillants dans la conception d'armes biologiques ou chimiques — des scénarios que les chercheurs en sécurité de l'IA considèrent comme des risques existentiels. Ce n'est pas un tiers qui tire la sonnette d'alarme : c'est Anthropic elle-même qui documente ces risques dans ses propres évaluations. Cette révélation involontaire s'inscrit dans un contexte de course effrénée aux modèles toujours plus puissants entre Anthropic, OpenAI et Google DeepMind. Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI sur la promesse d'une IA « sûre par conception », se retrouve face à une contradiction fondamentale : publier un modèle qu'elle-même juge potentiellement dangereux. La question de savoir si — et quand — Claude Mythos sera effectivement déployé, et avec quelles restrictions, reste entière.

UEUn modèle classé ASL-4 tomberait sous les dispositions de l'AI Act pour les modèles à risque systémique, obligeant Anthropic à des évaluations renforcées avant tout déploiement dans l'UE.

SécuritéActu
1 source
Claude Opus 4.7 : l’IA interdite Mythos entre les mains du grand public ?
4Le Big Data 

Claude Opus 4.7 : l’IA interdite Mythos entre les mains du grand public ?

Le 16 avril 2026, Anthropic a officiellement lancé Claude Opus 4.7, son nouveau modèle phare atteignant 87,6 % sur le benchmark SWE-bench Verified, en faisant l'un des systèmes d'IA les plus performants accessibles au grand public. Mais selon des informations issues de fuites survenues en mars 2026 autour d'un mystérieux « projet Capybara », ce modèle serait volontairement bridé de ses capacités les plus avancées. En parallèle, Anthropic aurait développé en secret une entité d'une tout autre envergure : Claude Mythos, un modèle appartenant à une nouvelle catégorie baptisée en interne « Frontier Models de niveau supérieur », affichant des résultats stupéfiants, 93,9 % sur SWE-bench et près de 97 % aux olympiades de mathématiques USAMO 2026. Ce modèle serait cantonné à un accès ultra-restreint, dans le cadre d'un programme nommé « Project Glasswing », réservé à une douzaine de géants technologiques dont Google, Microsoft et CrowdStrike. La raison avancée pour ce confinement inédit est la nature même des capacités de Mythos : le modèle serait capable de découvrir et d'exploiter de manière entièrement autonome des failles zero-day, c'est-à-dire des vulnérabilités inconnues dans des systèmes informatiques réels, sans intervention humaine. Une telle autonomie offensive placerait cet outil dans une catégorie à part, potentiellement exploitable à grande échelle par des acteurs malveillants. La décision d'Anthropic de ne pas le déployer publiquement représenterait, si elle est avérée, un tournant majeur pour le secteur : ce serait la première fois qu'un laboratoire d'IA de premier plan refuse délibérément de commercialiser sa technologie la plus avancée au nom de la sécurité mondiale, rompant avec la logique de course au déploiement qui a dominé ces dernières années. Ce scénario s'inscrit dans un contexte de tensions croissantes entre la vitesse d'innovation et les impératifs de sécurité. Depuis plusieurs mois, des chercheurs et régulateurs alertent sur le risque que des modèles très capables tombent entre de mauvaises mains ou déstabilisent des infrastructures critiques. Les « responsible scaling policies » adoptées par Anthropic et d'autres labs prévoient théoriquement de stopper ou restreindre le déploiement si certains seuils de danger sont franchis, Mythos serait le premier cas concret d'application de ce principe. Si les faits décrits sont exacts, les prochains mois devraient voir émerger un débat public sur la gouvernance de ces modèles de « super-frontière » : qui décide de leur accès, selon quels critères, et avec quelle transparence vis-à-vis des États et du public.

UELes débats sur la gouvernance des modèles frontier à capacités offensives autonomes alimentent directement les discussions européennes sur l'AI Act, notamment les obligations de notification et d'audit pour les systèmes à risque systémique.

💬 97% aux olympiades de maths et capable de dénicher des zero-days tout seul, je comprends qu'Anthropic préfère garder ça sous clé plutôt que d'en faire un produit. Ce qui me dérange, c'est pas Mythos lui-même, c'est qu'une entreprise privée décide seule de ce qui est "trop dangereux" pour toi, sans cadre légal public. Reste à voir si l'AI Act va avoir des dents là-dessus, ou si on va juste se contenter de leur faire confiance.

SécuritéOpinion
1 source