Aller au contenu principal
SécuritéLe Big Data2sem

OpenAI lance GPT-5.4 Cyber : le coup de grâce porté à Anthropic

Résumé IASources croisées · 5Impact UE
Source originale ↗·

OpenAI a dévoilé le 14 avril 2026 GPT-5.4-Cyber, une version spécialisée de son modèle GPT-5.4 fine-tunée pour les usages de cybersécurité défensive. Ce nouveau modèle ne sera pas accessible au grand public : seuls les chercheurs, experts du domaine et organisations vérifiées pourront y accéder via un programme baptisé Trusted Access for Cyber (TAC), qui fonctionne par niveaux d'accréditation progressifs. Sa capacité la plus remarquable est l'analyse de logiciels compilés sans accès au code source, l'IA peut examiner un programme inconnu, détecter des comportements suspects, identifier des vulnérabilités, ou disséquer des malwares et logiciels espions pour en comprendre les mécanismes internes. Des opérations que les versions grand public de ChatGPT refusent d'effectuer. OpenAI précise que GPT-5.4-Cyber servira également de socle pour de futures versions encore plus avancées, déjà en préparation.

L'impact concret se joue d'abord pour les équipes de sécurité des entreprises et les professionnels chargés de protéger des infrastructures critiques. En automatisant l'analyse de binaires et la détection de failles, un tel outil peut réduire considérablement le temps nécessaire pour répondre à une menace ou auditer un système. Le programme TAC prévoit d'élargir progressivement l'accès à un large réseau de professionnels vérifiés, ce qui distingue l'approche d'OpenAI d'un outil purement centralisé. Pour le secteur de la cybersécurité, l'enjeu est double : d'un côté, un gain de productivité substantiel pour les défenseurs ; de l'autre, une question de gouvernance sur qui contrôle ces capacités et comment éviter les détournements offensifs.

Cette annonce s'inscrit dans une bataille de positionnement directe avec Anthropic, qui venait de présenter Claude Mythos, son propre modèle orienté cybersécurité, capable d'identifier des vulnérabilités et d'explorer des scénarios d'exploitation. La différence stratégique est notable : là où Anthropic réserve Claude Mythos à un cercle fermé de grands acteurs tech comme Amazon, Google ou Microsoft, OpenAI opte pour une approche plus distribuée via le TAC, accessible à un plus grand nombre d'organisations à condition qu'elles prouvent leur légitimité. OpenAI a par ailleurs mis en pause certaines initiatives comme le projet Sora pour concentrer ses ressources sur les usages professionnels, notamment le développement logiciel et la sécurité informatique. La course aux modèles spécialisés pour la cybersécurité s'accélère, et les deux leaders du secteur ont désormais chacun une offre en lice, avec des philosophies d'accès sensiblement différentes.

Impact France/UE

Les équipes de cybersécurité européennes protégeant des infrastructures critiques pourraient accéder au programme TAC d'OpenAI et réduire significativement leurs délais d'analyse de menaces et d'audit de systèmes.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité
1MarkTechPost 

OpenAI élargit l'accès à GPT-5.4-Cyber, un modèle affiné pour les professionnels de la cybersécurité

OpenAI a annoncé l'extension de son programme Trusted Access for Cyber (TAC) à des milliers de professionnels de la sécurité vérifiés individuellement, ainsi qu'à des centaines d'équipes chargées de défendre des infrastructures logicielles critiques. Au cœur de cette expansion figure GPT-5.4-Cyber, un modèle dérivé de GPT-5.4 spécifiquement ajusté pour les usages défensifs en cybersécurité. Contrairement au modèle standard, GPT-5.4-Cyber adopte ce qu'OpenAI qualifie d'approche "cyber-permissive" : son seuil de refus est délibérément abaissé pour les requêtes à vocation défensive légitime. Parmi les capacités débloquées figure notamment l'ingénierie inverse de binaires sans accès au code source, une fonctionnalité majeure pour analyser des firmwares, des bibliothèques tierces ou des échantillons de malwares compilés. Les utilisateurs accèdent au programme via chatgpt.com/cyber pour une vérification individuelle, ou par l'intermédiaire d'un représentant OpenAI pour les équipes entreprise. Ce changement s'attaque à un problème concret que connaissent bien les chercheurs et ingénieurs en sécurité : les modèles généralistes refusent fréquemment d'analyser du code malveillant ou d'expliquer des techniques d'exploitation, même dans un cadre manifestement défensif. Cette friction ralentit le travail des équipes de sécurité offensives et défensives légitimes, au profit, indirectement, des attaquants qui eux n'attendent pas de validation. En réduisant ces blocages pour des utilisateurs vérifiés, OpenAI cherche à rééquilibrer l'avantage technologique en faveur des défenseurs. Le modèle conserve toutefois des garde-fous stricts : l'exfiltration de données, la création ou le déploiement de malwares, et les tests non autorisés restent explicitement interdits. L'accès en mode zéro-rétention de données est également limité, OpenAI arguant d'une visibilité réduite sur l'environnement et les intentions de l'utilisateur dans cette configuration. La cybersécurité a toujours souffert de ce qu'on appelle le problème du double usage : les mêmes connaissances techniques servent aussi bien à défendre des systèmes qu'à les attaquer. Pour les systèmes d'IA, cette tension est particulièrement aiguë, car il est difficile de distinguer automatiquement une intention défensive d'une intention malveillante. OpenAI propose ici une réponse structurelle inédite : un cadre d'accès à plusieurs niveaux fondé sur la vérification d'identité, plutôt que des restrictions uniformes appliquées à tous. Cette approche s'inscrit dans une tendance plus large du secteur à différencier les accès selon le profil et les intentions déclarés de l'utilisateur. Si le modèle se généralise, d'autres fournisseurs de modèles comme Anthropic ou Google DeepMind pourraient être amenés à développer des dispositifs similaires pour ne pas laisser OpenAI s'imposer comme la référence des outils d'IA pour la sécurité professionnelle.

UELes professionnels de la cybersécurité européens peuvent candidater au programme TAC d'OpenAI pour accéder à des capacités d'analyse défensive avancées, notamment l'ingénierie inverse de binaires et l'analyse de malwares compilés.

SécuritéOpinion
1 source
2The Decoder 

OpenAI emboîte le pas à Anthropic en restreignant l'accès à son IA de cybersécurité avancée

OpenAI développe un nouveau modèle d'intelligence artificielle doté de capacités avancées en cybersécurité, dont l'accès sera limité à un cercle restreint d'entreprises sélectionnées. L'information, rapportée par Axios, indique que la société de Sam Altman suit ainsi la même approche que son concurrent Anthropic, qui avait déjà mis en place un accès contrôlé pour ses propres outils d'IA orientés sécurité informatique. Cette décision reflète une tension croissante dans le secteur : les modèles suffisamment puissants pour aider les équipes de sécurité défensive peuvent également servir à automatiser des attaques, rédiger des malwares ou identifier des vulnérabilités à grande échelle. En restreignant l'accès à un nombre limité d'acteurs vérifiés, OpenAI cherche à éviter que ces capacités ne tombent entre de mauvaises mains, tout en permettant à des partenaires de confiance, typiquement des entreprises de cybersécurité ou des institutions gouvernementales, d'en exploiter le potentiel légitime. Anthropic avait ouvert la voie avec une politique similaire autour de Claude pour les usages offensifs en sécurité, reconnaissant que certaines capacités nécessitent un encadrement strict plutôt qu'une mise sur le marché ouverte. Ce mouvement parallèle des deux principaux laboratoires d'IA américains suggère l'émergence d'une norme informelle de l'industrie : les outils d'IA à double usage dans la cybersécurité ne seront pas accessibles via les APIs publiques classiques, mais distribués selon un modèle d'accréditation. La question de qui décide des critères d'accès, et selon quelle transparence, reste entière.

UELes entreprises européennes de cybersécurité pourraient voir leur accès à ces outils conditionné par des critères d'accréditation définis unilatéralement par des laboratoires américains, sans cadre réglementaire européen pour encadrer cette distribution.

SécuritéOpinion
1 source
3Siècle Digital 

OpenAI travaille sur un modèle de cybersécurité destiné à concurrencer Mythos d’Anthropic

OpenAI prépare un modèle d'intelligence artificielle spécialisé dans la cybersécurité, développé en réponse directe à Mythos, le modèle similaire annoncé par Anthropic quelques jours plus tôt. L'information, rapportée par Axios, révèle que cet outil ne sera pas accessible au grand public : il sera distribué exclusivement à un cercle restreint de partenaires sélectionnés, notamment des entreprises technologiques et des acteurs spécialisés dans la sécurité informatique, selon le même modèle de distribution fermée qu'Anthropic a choisi pour Mythos. Cette approche restrictive reflète les enjeux sensibles liés aux modèles d'IA orientés cybersécurité, capables à la fois de défendre des systèmes et de les attaquer. En réservant l'accès à des partenaires de confiance, OpenAI tente de concilier l'utilité opérationnelle de l'outil avec les risques de détournement à des fins malveillantes. Pour les entreprises de sécurité partenaires, un tel modèle pourrait accélérer la détection de vulnérabilités, l'analyse de malwares et la réponse aux incidents, des tâches aujourd'hui largement manuelles et chronophages. La course entre OpenAI et Anthropic sur ce segment illustre une tendance plus large : les grands laboratoires d'IA cherchent à s'imposer dans des secteurs verticaux à haute valeur ajoutée, après avoir dominé les usages généralistes. La cybersécurité, marché mondial estimé à plusieurs centaines de milliards de dollars, attire également Google, Microsoft et des acteurs spécialisés comme CrowdStrike ou Palo Alto Networks, déjà engagés dans l'intégration de l'IA dans leurs plateformes. La rapidité de la réplique d'OpenAI suggère que ce segment est désormais considéré comme stratégique par les deux entreprises.

UELes entreprises européennes de cybersécurité pourraient accéder à ces modèles spécialisés via des partenariats, accélérant la détection de vulnérabilités et la réponse aux incidents sur le marché européen.

SécuritéActu
1 source
4The Verge AI 

Anthropic lance un nouveau modèle d'IA pour la cybersécurité

Anthropic lance un nouveau modèle d'intelligence artificielle dédié à la cybersécurité, dans le cadre d'un partenariat baptisé Project Glasswing réunissant Nvidia, Google, Amazon Web Services, Apple, Microsoft et d'autres grandes entreprises technologiques. Ce projet propose aux partenaires de lancement un accès à Claude Mythos Preview, un modèle généraliste inédit qu'Anthropic ne prévoit pas de rendre public en raison de préoccupations liées à la sécurité. L'objectif affiché est de permettre aux grandes organisations, et potentiellement aux gouvernements, de détecter automatiquement des vulnérabilités dans leurs systèmes avec une intervention humaine quasi nulle. L'enjeu est considérable pour les équipes de sécurité informatique qui font face à un volume croissant de menaces et manquent souvent de ressources pour les auditer manuellement. En automatisant la détection de failles, Claude Mythos Preview pourrait réduire drastiquement le temps de réponse face aux cyberattaques et permettre aux entreprises d'identifier des vulnérabilités avant que des acteurs malveillants ne les exploitent. Newton Cheng, responsable cyber au sein de l'équipe red team d'Anthropic, indique que le modèle vise à donner aux équipes de sécurité un avantage structurel sur leurs adversaires. Cette initiative s'inscrit dans une tendance de fond où les grands laboratoires d'IA cherchent à positionner leurs modèles sur des secteurs critiques à haute valeur ajoutée. Anthropic, qui se distingue par son approche axée sur la sécurité des systèmes d'IA, choisit ici de restreindre l'accès à ce modèle plutôt que de le diffuser largement, une décision rare qui soulève des questions sur la gouvernance des outils d'IA offensifs et défensifs dans un contexte géopolitique tendu.

UELes organisations européennes et gouvernements de l'UE pourraient accéder à cet outil de détection automatique de vulnérabilités via le programme partenaires, renforçant leur posture de cybersécurité face aux menaces croissantes.

SécuritéActu
1 source