
La brèche Mythos d'Anthropic s'est révélée humiliante
Anthropic a subi une brèche embarrassante dans le déploiement de son modèle Claude Mythos. Selon Bloomberg, un "petit groupe d'utilisateurs non autorisés" a eu accès au modèle dès le jour où Anthropic a annoncé son intention de le proposer en test à une sélection restreinte d'entreprises. Le modèle lui-même n'avait été révélé au public que quelques jours plus tôt via une fuite, avant qu'Anthropic ne confirme officiellement son existence. La société indique qu'elle enquête sur l'incident.
L'ironie est particulièrement cinglante : Anthropic avait justifié la non-publication de Mythos en arguant que ses capacités en cybersécurité étaient si avancées qu'elles représentaient un danger pour le grand public. Le modèle aurait été jugé trop puissant pour être diffusé librement. Le fait qu'il soit malgré tout tombé entre de mauvaises mains le jour même de son annonce officielle soulève des questions sérieuses sur les contrôles internes de la société et sur la solidité de ses procédures de déploiement restreint.
Cette mésaventure survient à un moment délicat pour Anthropic, qui a bâti toute sa réputation sur la notion de "safety" en intelligence artificielle, se positionnant comme un acteur plus responsable que ses concurrents. Avec Claude Mythos, la société cherchait à valoriser des capacités offensives en cybersécurité tout en maintenant un contrôle strict sur leur diffusion, un équilibre difficile que d'autres laboratoires comme OpenAI ou Google ont également tenté de naviguer. La brèche risque d'alimenter les doutes sur la capacité de l'industrie à tenir ses promesses de déploiement maîtrisé.
Cette brèche fragilise les arguments en faveur de l'autorégulation des laboratoires d'IA, un enjeu central pour l'application de l'AI Act européen.




