Aller au contenu principal
GPT-5.5 égale Mythos Preview dans les nouveaux tests de cybersécurité
SécuritéArs Technica AI3h

GPT-5.5 égale Mythos Preview dans les nouveaux tests de cybersécurité

Résumé IASource uniqueImpact UE
Source originale ↗·

Le modèle GPT-5.5 d'OpenAI, mis en accès public la semaine dernière, a obtenu des résultats comparables à ceux de Mythos Preview d'Anthropic lors des évaluations cybersécurité menées par l'AI Security Institute britannique (AISI). Sur les 95 défis de type Capture the Flag testant des compétences en rétro-ingénierie, exploitation web et cryptographie, GPT-5.5 a résolu en moyenne 71,4 % des tâches de niveau "Expert", contre 68,6 % pour Mythos Preview, un écart qui reste dans la marge d'erreur. Sur un défi particulièrement difficile consistant à construire un désassembleur pour décoder un binaire Rust, GPT-5.5 a résolu la tâche en 10 minutes et 22 secondes, sans assistance humaine, pour un coût de 1,73 dollar en appels API. Les deux modèles ont également obtenu des performances similaires sur "The Last Ones" (TLO), un scénario simulant une attaque d'extraction de données en 32 étapes sur un réseau d'entreprise: GPT-5.5 a réussi 3 tentatives sur 10, contre 2 sur 10 pour Mythos Preview. Aucun modèle testé auparavant n'avait jamais réussi ce scénario ne serait-ce qu'une seule fois.

Ce résultat fragilise directement la posture d'Anthropic, qui avait présenté Mythos Preview le mois dernier comme un modèle au potentiel cybersécuritaire exceptionnel, justifiant une restriction d'accès aux seuls "partenaires industriels critiques". GPT-5.5 atteint un niveau de capacité équivalent tout en étant disponible publiquement, ce qui soulève des questions sur la cohérence des politiques de déploiement entre les deux laboratoires. Pour les entreprises et les équipes de sécurité, cela signifie que des outils d'attaque automatisés de niveau expert sont désormais accessibles à tous, sans restriction.

L'AISI conduit ces évaluations sur les modèles frontier depuis 2023, dans le cadre d'un effort de surveillance indépendante des capacités offensives de l'IA. Le seul scénario sur lequel aucun modèle n'a encore percé est "Cooling Tower", une simulation d'attaque contre le logiciel de contrôle d'une centrale électrique, ce qui indique qu'une limite demeure pour l'instant. Mais la trajectoire est claire: les capacités cybersécuritaires des grands modèles progressent rapidement, et le débat sur leur encadrement devient plus urgent à mesure que la performance rejoint puis dépasse celle des experts humains sur des tâches ciblées.

Impact France/UE

Les équipes de sécurité européennes doivent réviser leurs modèles de menace : des outils d'attaque réseau de niveau expert (exfiltration en 32 étapes, rétro-ingénierie Rust) sont désormais accessibles publiquement, et l'AISI britannique est susceptible de transmettre ces résultats à l'AI Office européen dans le cadre de la surveillance prévue par l'AI Act.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

GPT-5.5 rivalise avec Claude Mythos dans les tests de cyberattaques, selon l'Institut britannique de sécurité de l'IA
1The Decoder 

GPT-5.5 rivalise avec Claude Mythos dans les tests de cyberattaques, selon l'Institut britannique de sécurité de l'IA

GPT-5.5 d'OpenAI est capable de résoudre de manière autonome une simulation complète d'attaque réseau, selon les évaluations publiées par l'UK AI Security Institute (AISI). C'est seulement le deuxième modèle à franchir ce seuil, aux côtés du Claude Mythos d'Anthropic. GPT-5.5 est d'ores et déjà déployé dans ChatGPT et accessible via l'API d'OpenAI, tandis que Claude Mythos reste réservé à un groupe très restreint de partenaires et testeurs. Cette performance marque un tournant dans le paysage de la cybersécurité. Qu'un modèle accessible au grand public puisse enchaîner de manière autonome les étapes d'une intrusion réseau complète, de la reconnaissance initiale jusqu'à l'exploitation d'une cible, représente une menace concrète pour les entreprises et institutions. Jusqu'ici, ce niveau de capacité restait cantonné à des systèmes expérimentaux à diffusion très limitée. Le fait que GPT-5.5 soit déjà largement déployé soulève des questions urgentes sur le contrôle des aptitudes offensives des modèles commerciaux. L'AISI britannique, créée dans le sillage du sommet de Bletchley Park de novembre 2023, évalue régulièrement les modèles dits frontier avant et après leur mise sur le marché, en testant leurs capacités dans des domaines sensibles comme la cybersécurité ou les armes de destruction massive. Ces évaluations s'inscrivent dans un effort plus large de gouvernance internationale de l'IA, auquel participent notamment la France, le Royaume-Uni et les États-Unis. La convergence de GPT-5.5 et Claude Mythos sur ces benchmarks offensifs va probablement intensifier les débats réglementaires sur les seuils de déploiement acceptables pour les modèles aux capacités les plus avancées.

UELa France, partenaire de l'AISI britannique dans le cadre de la gouvernance internationale de l'IA issue de Bletchley Park, sera directement impliquée dans les débats réglementaires sur les seuils de déploiement acceptables pour les modèles aux capacités offensives avancées.

💬 GPT-5.5 déjà en prod, accessible à tous, capable d'enchaîner une attaque réseau complète de bout en bout. Pendant ce temps Claude Mythos fait la même chose mais reste sous clé chez Anthropic. Le vrai débat, c'est là : OpenAI vient de décider tout seul que ce niveau de capacité offensive est acceptable en déploiement grand public, et personne ne leur a dit non.

SécuritéOpinion
1 source
GPT-5.5 aussi redoutable que Mythos en matière de hacking ? Les tests inquiètent
2Le Big Data 

GPT-5.5 aussi redoutable que Mythos en matière de hacking ? Les tests inquiètent

L'AI Security Institute a publié fin avril 2026 les résultats de tests comparatifs entre GPT-5.5, le dernier modèle d'OpenAI, et Mythos, le modèle phare d'Anthropic, sur des scénarios de cyberattaque simulés. Sur CyberBench et la simulation britannique TLO en 32 étapes, GPT-5.5 atteint 71,4 % de réussite sur des tâches de niveau expert, contre 68,6 % pour Mythos. Plus révélateur encore : GPT-5.5 a réussi à compléter la simulation TLO de bout en bout dans 2 cas sur 10, Mythos dans 3 cas sur 10. Cette simulation reproduit une cyberattaque complète incluant la reconnaissance, l'exploitation de vulnérabilités, l'élévation de privilèges, les mouvements latéraux et l'analyse cryptographique, soit des opérations normalement réservées à des professionnels de la sécurité offensive. Ce franchissement de seuil est significatif parce qu'il marque un glissement qualitatif : ces modèles ne se contentent plus d'assister un humain dans une tâche ponctuelle, ils sont désormais capables d'exécuter des chaînes d'attaque complètes et cohérentes sur plusieurs dizaines d'étapes. Une erreur en cours de séquence suffit normalement à faire échouer l'ensemble de la simulation, ce qui rend la réussite partielle de ces deux systèmes d'autant plus notable. Pour les équipes de sécurité défensive, les entreprises et les gouvernements, cela signifie que des capacités offensives jusqu'ici réservées à des groupes d'attaquants expérimentés pourraient devenir accessibles via des interfaces conversationnelles grand public, abaissant drastiquement le niveau technique requis pour mener des intrusions sophistiquées. Mythos faisait déjà l'objet d'inquiétudes avant la publication de ces résultats : Anthropic lui-même avait appelé à la prudence quant à son déploiement, et la Maison-Blanche avait exprimé des réserves sur les risques d'usage incontrôlé. GPT-5.5 s'invite maintenant dans ce débat avec des performances quasi équivalentes, ce qui complique la gestion du risque : il ne s'agit plus d'un modèle isolé jugé trop puissant, mais d'une tendance de fond touchant les grands laboratoires simultanément. L'écart entre les deux modèles est mince sur les benchmarks, mais GPT-5.5 se distingue par une progression plus régulière à travers les étapes, tandis que Mythos affiche des avancées plus irrégulières. La trajectoire commune des deux systèmes, clairement visible sur les graphiques de l'AI Security Institute, indique que davantage de tokens disponibles se traduit directement par une plus grande profondeur d'exécution dans les simulations d'attaque, ouvrant la question de savoir où se situe la prochaine limite à franchir.

UELes administrations et entreprises européennes font face à un risque accru d'intrusions sophistiquées facilitées par des interfaces grand public, une menace que l'ENISA et les obligations de l'AI Act sur les systèmes à haut risque devront intégrer en urgence.

💬 Le score à 71%, c'est presque secondaire. Ce qui compte, c'est qu'il n'y a plus un modèle isolé à surveiller, les deux plus grands labos arrivent au même résultat simultanément, et ça rend la gestion du risque autrement plus compliquée. 2 fois sur 10, 3 fois sur 10, une chaîne d'attaque complète en 32 étapes sans assistance humaine : le niveau d'entrée pour mener une intrusion sophistiquée vient de baisser d'un cran.

SécuritéOpinion
1 source
OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité
3MarkTechPost 

OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité

OpenAI a annoncé l'extension de son programme Trusted Access for Cyber (TAC) à des milliers de professionnels de la sécurité vérifiés individuellement, ainsi qu'à des centaines d'équipes chargées de défendre des infrastructures logicielles critiques. Au cœur de cette expansion figure GPT-5.4-Cyber, un modèle dérivé de GPT-5.4 spécifiquement ajusté pour les usages défensifs en cybersécurité. Contrairement au modèle standard, GPT-5.4-Cyber adopte ce qu'OpenAI qualifie d'approche "cyber-permissive" : son seuil de refus est délibérément abaissé pour les requêtes à vocation défensive légitime. Parmi les capacités débloquées figure notamment l'ingénierie inverse de binaires sans accès au code source, une fonctionnalité majeure pour analyser des firmwares, des bibliothèques tierces ou des échantillons de malwares compilés. Les utilisateurs accèdent au programme via chatgpt.com/cyber pour une vérification individuelle, ou par l'intermédiaire d'un représentant OpenAI pour les équipes entreprise. Ce changement s'attaque à un problème concret que connaissent bien les chercheurs et ingénieurs en sécurité : les modèles généralistes refusent fréquemment d'analyser du code malveillant ou d'expliquer des techniques d'exploitation, même dans un cadre manifestement défensif. Cette friction ralentit le travail des équipes de sécurité offensives et défensives légitimes, au profit, indirectement, des attaquants qui eux n'attendent pas de validation. En réduisant ces blocages pour des utilisateurs vérifiés, OpenAI cherche à rééquilibrer l'avantage technologique en faveur des défenseurs. Le modèle conserve toutefois des garde-fous stricts : l'exfiltration de données, la création ou le déploiement de malwares, et les tests non autorisés restent explicitement interdits. L'accès en mode zéro-rétention de données est également limité, OpenAI arguant d'une visibilité réduite sur l'environnement et les intentions de l'utilisateur dans cette configuration. La cybersécurité a toujours souffert de ce qu'on appelle le problème du double usage : les mêmes connaissances techniques servent aussi bien à défendre des systèmes qu'à les attaquer. Pour les systèmes d'IA, cette tension est particulièrement aiguë, car il est difficile de distinguer automatiquement une intention défensive d'une intention malveillante. OpenAI propose ici une réponse structurelle inédite : un cadre d'accès à plusieurs niveaux fondé sur la vérification d'identité, plutôt que des restrictions uniformes appliquées à tous. Cette approche s'inscrit dans une tendance plus large du secteur à différencier les accès selon le profil et les intentions déclarés de l'utilisateur. Si le modèle se généralise, d'autres fournisseurs de modèles comme Anthropic ou Google DeepMind pourraient être amenés à développer des dispositifs similaires pour ne pas laisser OpenAI s'imposer comme la référence des outils d'IA pour la sécurité professionnelle.

UELes professionnels de la cybersécurité européens peuvent candidater au programme TAC d'OpenAI pour accéder à des capacités d'analyse défensive avancées, notamment l'ingénierie inverse de binaires et l'analyse de malwares compilés.

SécuritéOpinion
1 source
Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA
4The Information AI 

Anthropic : le modèle Mythos marque un tournant pour les risques de cybersécurité liés à l'IA

Anthropic a involontairement rendu public un brouillon de billet de blog révélant l'existence d'un nouveau modèle d'IA baptisé "Mythos", spécialement conçu pour la génération et la révision de code informatique. Selon ce document, le modèle serait capable d'exploiter des vulnérabilités de sécurité "d'une manière qui dépasse largement les efforts des défenseurs". La société a déjà commencé à briefer des chercheurs en cybersécurité et leur accorde un accès anticipé afin de recueillir des retours avant un lancement officiel. L'enjeu est considérable : si un tel modèle tombait entre de mauvaises mains, il permettrait à des hackers peu qualifiés de mener des attaques sophistiquées à grande échelle, creusant davantage l'écart entre attaquants et défenseurs. Anthropic cherche précisément à identifier ces risques avant la mise sur le marché, en s'appuyant sur la communauté des chercheurs pour "red-teamer" le modèle et réduire son potentiel offensif. Cette démarche illustre la tension croissante entre les capacités des LLMs spécialisés dans le code et les impératifs de sécurité. Cette initiative s'inscrit dans une tendance plus large où les grands laboratoires d'IA — OpenAI, Google DeepMind, et désormais Anthropic — développent des modèles hautement performants pour le code, tout en faisant face à des questions épineuses sur leur double usage. Anthropic, qui se positionne comme un acteur responsable de l'IA via sa politique d'"IA constitutionnelle", se retrouve confronté au paradoxe fondamental du domaine : les mêmes capacités qui accélèrent la défense peuvent aussi armer les adversaires. La divulgation accidentelle du brouillon suggère que la pression autour de Mythos est déjà forte en interne.

UELes capacités offensives de modèles comme Mythos représentent une menace directe pour les infrastructures numériques européennes et soulèvent des questions de conformité avec l'AI Act concernant les systèmes IA à double usage.

💬 Un modèle qui dépasse les défenseurs sur leur propre terrain, c'est le scénario qu'on redoutait depuis que les LLMs de code sont vraiment capables. Ce qui compte, c'est qu'Anthropic le dit franchement et organise le red-teaming avant le lancement, pas après. La fuite du draft, c'est maladroit, mais ça confirme surtout que la pression en interne est déjà énorme.

SécuritéOpinion
1 source