
De GPT-2 à Claude Mythos : le retour des modèles d'IA jugés trop dangereux à publier
Il y a sept ans, OpenAI avait annoncé en grande pompe que son modèle GPT-2 était « trop dangereux pour être publié », une décision largement moquée par l'industrie, qui y avait vu une opération de communication plus qu'une précaution réelle. Aujourd'hui, Anthropic reproduit le même geste avec Claude Mythos Preview, mais avec une différence de taille : cette fois, des preuves concrètes accompagnent la décision. Le modèle a identifié des milliers de vulnérabilités dans des systèmes d'exploitation et des navigateurs web, en un volume si élevé qu'aucune équipe humaine ne serait en mesure de les examiner dans un délai raisonnable.
L'enjeu est fondamentalement différent de 2019. Un modèle capable de découvrir et potentiellement d'exploiter des failles à cette échelle représente une menace asymétrique pour la cybersécurité mondiale : un acteur malveillant disposant d'un tel outil pourrait attaquer des infrastructures critiques bien plus vite que les défenseurs ne pourraient réagir. La question n'est plus théorique, elle est opérationnelle.
Ce changement de posture illustre une évolution profonde dans le secteur. La course aux capacités des LLM a produit des modèles dont les aptitudes dépassent désormais les cadres d'évaluation existants. Anthropic, qui a investi massivement dans la recherche sur la sécurité des IA avec son équipe d'« AI Safety », se retrouve dans la position inconfortable de restreindre ses propres créations. La question qui se pose maintenant est de savoir si d'autres laboratoires, sous pression concurrentielle, adopteront la même retenue ou choisiront de publier quand même.
La capacité d'un LLM à identifier des milliers de vulnérabilités systèmes renforce l'urgence d'encadrer les évaluations de sécurité des modèles à usage général dans le cadre de l'AI Act européen.



