Aller au contenu principal
OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée
SécuritéThe Decoder3h

OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée

1 source couvre ce sujet·Source originale ↗·

OpenAI développe un nouveau modèle d'intelligence artificielle doté de capacités avancées en cybersécurité, dont l'accès sera limité à un cercle restreint d'entreprises sélectionnées. L'information, rapportée par Axios, indique que la société de Sam Altman suit ainsi la même approche que son concurrent Anthropic, qui avait déjà mis en place un accès contrôlé pour ses propres outils d'IA orientés sécurité informatique.

Cette décision reflète une tension croissante dans le secteur : les modèles suffisamment puissants pour aider les équipes de sécurité défensive peuvent également servir à automatiser des attaques, rédiger des malwares ou identifier des vulnérabilités à grande échelle. En restreignant l'accès à un nombre limité d'acteurs vérifiés, OpenAI cherche à éviter que ces capacités ne tombent entre de mauvaises mains, tout en permettant à des partenaires de confiance, typiquement des entreprises de cybersécurité ou des institutions gouvernementales, d'en exploiter le potentiel légitime.

Anthropic avait ouvert la voie avec une politique similaire autour de Claude pour les usages offensifs en sécurité, reconnaissant que certaines capacités nécessitent un encadrement strict plutôt qu'une mise sur le marché ouverte. Ce mouvement parallèle des deux principaux laboratoires d'IA américains suggère l'émergence d'une norme informelle de l'industrie : les outils d'IA à double usage dans la cybersécurité ne seront pas accessibles via les APIs publiques classiques, mais distribués selon un modèle d'accréditation. La question de qui décide des critères d'accès, et selon quelle transparence, reste entière.

Impact France/UE

Les entreprises européennes de cybersécurité pourraient voir leur accès à ces outils conditionné par des critères d'accréditation définis unilatéralement par des laboratoires américains, sans cadre réglementaire européen pour encadrer cette distribution.

À lire aussi

Mythos a exploité de façon autonome des failles ignorées depuis 27 ans : les équipes de sécurité doivent changer d'approche
1VentureBeat AI 

Mythos a exploité de façon autonome des failles ignorées depuis 27 ans : les équipes de sécurité doivent changer d'approche

Un bug vieux de 27 ans dormait dans la pile TCP d'OpenBSD, l'un des systèmes d'exploitation les plus réputés pour sa sécurité. Des auditeurs humains l'avaient examiné, des outils de fuzzing l'avaient martelé des millions de fois, et pourtant deux paquets réseau suffisaient à faire crasher n'importe quel serveur tournant dessus. C'est Claude Mythos Preview, le nouveau modèle d'Anthropic, qui l'a découvert de manière entièrement autonome, sans aucune guidance humaine après le prompt initial. Le coût total de la campagne de découverte : environ 20 000 dollars. Le coût de l'exécution spécifique qui a trouvé la faille : moins de 50 dollars. Ce n'était pas un cas isolé : Mythos a également identifié une faille de 16 ans dans le codec H.264 de FFmpeg, que les fuzzeurs avaient pourtant exercé 5 millions de fois sans jamais la déclencher, une faille d'exécution de code à distance dans FreeBSD NFS vieille de 17 ans (CVE-2026-4747), permettant un accès root non authentifié depuis internet, et des milliers d'autres zero-days touchant tous les grands systèmes d'exploitation et navigateurs. Sur les tests comparatifs, Mythos dépasse Claude Opus 4.6 de manière spectaculaire : 181 exploits réussis contre 2 sur Firefox 147, un score de 77,8 % contre 53,4 % sur SWE-bench Pro, et 83,1 % contre 66,6 % sur CyberGym. Mythos a saturé le CTF interne Cybench d'Anthropic à 100 %, contraignant l'équipe rouge à basculer vers la découverte de zero-days réels comme seule évaluation pertinente. La portée de ces capacités redéfinit ce que l'industrie de la sécurité considérait comme possible. Des ingénieurs d'Anthropic sans formation formelle en sécurité ont demandé à Mythos de trouver des vulnérabilités d'exécution de code à distance pendant la nuit, et se sont réveillés avec un exploit fonctionnel complet. Ce n'est plus de l'analyse de code assistée : c'est un raisonnement sémantique autonome sur des interactions logicielles complexes que ni les outils statiques (SAST), ni le fuzzing, ni les auditeurs humains n'avaient su intercepter en plusieurs décennies. Les directeurs de sécurité reçoivent la nouvelle sans recevoir le manuel d'urgence. Pour tenter de canaliser cette capacité vers la défense avant qu'elle ne soit massivement utilisée à des fins offensives, Anthropic a constitué le Project Glasswing, une coalition de 12 partenaires incluant CrowdStrike, Cisco, Palo Alto Networks, Microsoft, AWS, Apple et la Linux Foundation. L'initiative est soutenue par 100 millions de dollars en crédits d'utilisation et 4 millions de dollars en subventions open-source, avec plus de 40 organisations supplémentaires accédant au modèle pour auditer leur propre infrastructure. Anthropic s'est engagé à publier un rapport public des découvertes d'ici 90 jours, soit début juillet 2026. Anthony Grieco, SVP et Chief Security Officer de Cisco, résumait l'ambivalence du moment lors de la RSA Conference 2026 : "Je n'ai jamais été aussi optimiste pour ce que nous pouvons accomplir en sécurité. C'est aussi un peu terrifiant, parce que nos adversaires ont cette même capacité."

UELes failles zero-day découvertes de manière autonome dans OpenBSD, FFmpeg et FreeBSD exposent des infrastructures critiques largement déployées en Europe, tandis que l'absence d'acteurs européens dans la coalition Project Glasswing interroge sur la capacité de l'UE à bénéficier des mécanismes de divulgation responsable mis en place par Anthropic.

SécuritéOpinion
1 source
Les chercheurs estiment que l'IA devient redoutablement efficace en matière de piratage, même sans Mythos
2The Information AI 

Les chercheurs estiment que l'IA devient redoutablement efficace en matière de piratage, même sans Mythos

Anthropic a développé un nouveau modèle d'IA baptisé Mythos, jugé si performant dans la réalisation de cyberattaques que l'entreprise a décidé de ne pas le rendre public. La société a choisi de le partager uniquement avec de grandes entreprises technologiques sélectionnées, afin qu'elles puissent anticiper et renforcer leurs défenses avant une éventuelle diffusion plus large. Parallèlement, la startup de cybersécurité Buzz, financée par Sequoia Capital, a publié de nouvelles recherches révélant que les modèles d'IA déjà disponibles publiquement sont capables de mener des cyberattaques complexes et autonomes en quelques minutes seulement. Ces résultats sont préoccupants à plusieurs titres. Le fait que des outils existants, accessibles à n'importe qui, puissent automatiser des attaques informatiques sophistiquées sans intervention humaine significative abaisse drastiquement le seuil d'entrée pour les acteurs malveillants. Des individus sans compétences techniques avancées pourraient désormais conduire des offensives qui requéraient auparavant des équipes entières de hackers expérimentés, menaçant aussi bien les entreprises que les infrastructures critiques. La décision d'Anthropic de restreindre Mythos illustre une tension croissante dans l'industrie de l'IA entre innovation ouverte et gestion des risques. Les grands laboratoires sont de plus en plus confrontés à la question de la divulgation responsable de modèles à capacités duales. Que des modèles grand public aient déjà atteint ce niveau de dangerosité offensive souligne l'urgence d'investir massivement dans la cybersécurité défensive, et relance le débat sur la nécessité d'une régulation internationale coordonnée du développement et de la diffusion des modèles d'IA les plus puissants.

UELes entreprises et infrastructures critiques européennes sont directement menacées par la démocratisation des cyberattaques autonomes via IA, renforçant l'urgence d'une régulation internationale coordonnée que la France et l'UE ont intérêt à porter.

SécuritéOpinion
1 source
Anthropic a développé un modèle trop dangereux pour être publié
3Ben's Bites 

Anthropic a développé un modèle trop dangereux pour être publié

Anthropic a développé un nouveau modèle d'intelligence artificielle, baptisé Claude Mythos, dont les performances dépassent largement celles de son prédécesseur Opus 4.6 : le taux de réussite sur SWE-bench Pro bondit de 53,4 % à 77,8 %, et sur Terminal-Bench 2.0 de 65,4 % à 82 %. Mais Mythos ne sera pas mis à disposition du grand public, du moins pas dans l'immédiat. La raison est aussi simple qu'alarmante : le modèle s'est révélé exceptionnellement efficace pour détecter et exploiter des failles de sécurité logicielle. Là où Opus 4.6 parvenait à générer 2 exploits fonctionnels sur Firefox après des centaines de tentatives, Mythos en a produit 181. Il a également identifié des vulnérabilités vieilles de plusieurs décennies dans des projets critiques comme OpenBSD (un bug datant de 27 ans) et FFmpeg (16 ans). Plutôt que de le commercialiser, Anthropic a choisi de le confier à 12 entreprises partenaires dans le cadre du projet "Glasswing", accompagné d'un engagement de 100 millions de dollars en crédits d'utilisation et de 4 millions de dollars de dons à des organisations de sécurité open source. La décision de ne pas publier Mythos illustre un tournant dans la gestion des risques liés à l'IA : un modèle peut être trop capable pour être diffusé librement. Si des outils aussi puissants tombaient entre de mauvaises mains, ils pourraient être utilisés pour compromettre des infrastructures critiques à grande échelle, exploiter des failles ignorées depuis des décennies dans des logiciels massivement déployés. En orientant les capacités de Mythos vers la recherche défensive, Anthropic tente de transformer une menace potentielle en atout pour la sécurité informatique mondiale. Pour les entreprises partenaires de Glasswing, l'accès anticipé représente aussi un avantage concurrentiel considérable dans la course à la détection de vulnérabilités. Ce lancement intervient dans un contexte de forte concurrence entre les acteurs de l'IA de pointe. Selon une synthèse récente d'Ethan Mollick, Google, OpenAI et Anthropic dominent clairement le segment frontier, tandis que Meta fait une entrée remarquée avec son modèle Muse Spark, positionné entre Sonnet 4.6 et Opus 4.6, sans accès API encore disponible mais avec des promesses d'open source. xAI, en revanche, semble avoir décroché du peloton de tête, et les meilleurs modèles chinois accuseraient encore sept à neuf mois de retard. Mythos, décrit par certains observateurs comme "ce qu'Opus est à Sonnet, mais en plus puissant encore", marque une accélération qui pousse Anthropic à repenser ses propres critères de diffusion. La question qui s'ouvre désormais est celle du cadre réglementaire et éthique capable d'encadrer des modèles dont les capacités offensives dépassent ce que les institutions de sécurité sont prêtes à absorber.

UEL'émergence de modèles aux capacités offensives jugées trop dangereuses pour être diffusées publiquement accentue la pression sur l'UE pour adapter l'AI Act à des mécanismes de rétention préventive et d'audit des modèles frontier.

SécuritéOpinion
1 source
Anthropic garde un nouveau modèle IA secret après avoir découvert des milliers de failles externes
4AI News 

Anthropic garde un nouveau modèle IA secret après avoir découvert des milliers de failles externes

Anthropic a développé un nouveau modèle d'intelligence artificielle, baptisé Claude Mythos Preview, dont les capacités en cybersécurité sont jugées trop dangereuses pour une diffusion publique. Ce modèle a déjà identifié des milliers de vulnérabilités dans les principaux systèmes d'exploitation et navigateurs web, notamment un bug vieux de 27 ans dans OpenBSD et une faille critique de 17 ans dans FreeBSD, la CVE-2026-4747, permettant à n'importe quel utilisateur non authentifié de prendre le contrôle total d'un serveur exposé sur internet. Cette dernière découverte a été réalisée de manière entièrement autonome, sans intervention humaine après la simple instruction initiale. Plutôt que de commercialiser le modèle, Anthropic a choisi de le confier discrètement à une coalition de partenaires fondateurs incluant Amazon Web Services, Apple, Cisco, Google, Microsoft, Nvidia, CrowdStrike, JPMorganChase et la Linux Foundation, auxquels s'ajoutent plus de 40 organisations gérant des infrastructures logicielles critiques. L'entreprise s'engage à mobiliser jusqu'à 100 millions de dollars en crédits d'utilisation et 4 millions de dollars en dons directs à des organisations de sécurité open source, dont 2,5 millions à Alpha-Omega et OpenSSF via la Linux Foundation, et 1,5 million à la Fondation Apache. L'enjeu dépasse la simple prouesse technique. Mythos Preview est capable de chaîner trois, quatre, voire cinq vulnérabilités distinctes pour construire des exploits sophistiqués, selon Nicholas Carlini, chercheur chez Anthropic, qui déclare avoir trouvé "plus de bugs ces dernières semaines que dans toute sa vie réunie". Le modèle sature désormais les benchmarks de sécurité existants, forçant Anthropic à se concentrer sur des tâches réelles inédites, notamment la découverte de failles zero-day. Newton Cheng, responsable de la Red Team cyber chez Anthropic, est explicite : les retombées d'une diffusion incontrôlée "pour les économies, la sécurité publique et la sécurité nationale pourraient être sévères". Pour les mainteneurs open source, qui gèrent des logiciels critiques sans équipes de sécurité dédiées, l'accès à ce type d'outil représente un rééquilibrage structurel : la sécurité de haut niveau cesse d'être un privilège réservé aux grands groupes. Cette initiative s'inscrit dans un contexte de tensions croissantes autour de l'IA offensive. Anthropic avait précédemment documenté le premier cas avéré d'une cyberattaque conduite majoritairement par des agents IA, un groupe soutenu par l'État chinois ayant infiltré une trentaine de cibles mondiales avec une autonomie tactique quasi totale. Les services de renseignement américains ont été informés en privé des capacités complètes de Mythos Preview et évaluent actuellement son impact potentiel sur les opérations offensives et défensives. Le projet Glasswing représente ainsi le pari d'Anthropic : diffuser les capacités défensives avant que les capacités offensives ne se propagent à des acteurs moins scrupuleux, dans une course contre la montre que la rapidité même des progrès de l'IA rend particulièrement incertaine.

UELes infrastructures open source européennes sont directement exposées aux vulnérabilités découvertes, notamment la CVE-2026-4747 affectant FreeBSD et un bug vieux de 27 ans dans OpenBSD, utilisés dans de nombreux systèmes critiques en Europe.

SécuritéActu
1 source