
Anthropic face à un dilemme : son modèle Claude Mythos serait trop puissant pour être lancé
Anthropic travaille sur un nouveau modèle d'intelligence artificielle baptisé Claude Mythos, décrit en interne comme le système le plus puissant jamais développé par l'entreprise. Selon des documents internes dont le contenu a été révélé par le magazine Fortune, ce modèle surpasse les capacités de tous les modèles Claude actuellement disponibles. Malgré ses performances exceptionnelles, Anthropic a décidé de ne pas le lancer publiquement, du moins pas dans l'immédiat.
La raison de cette retenue est précisément la puissance du modèle : Mythos serait jugé trop capable pour être diffusé sans précautions supplémentaires. Ce type de décision illustre un dilemme croissant dans le secteur — plus les modèles progressent, plus les questions de sécurité et d'évaluation des risques deviennent centrales avant tout déploiement. Pour les utilisateurs professionnels et les entreprises qui dépendent des API d'Anthropic, cela signifie que la frontière technologique réelle est désormais en avance sur ce qui est commercialement accessible.
Anthropic se distingue depuis sa fondation en 2021 par une approche dite de « sécurité d'abord », à rebours d'OpenAI dont elle est issue. La fuite de ces informations internes intervient dans un contexte de compétition acharnée entre laboratoires d'IA — OpenAI, Google DeepMind, Meta et xAI se livrant une course aux modèles toujours plus puissants. Le cas Mythos soulève une question stratégique : jusqu'où les labos peuvent-ils retenir leurs meilleurs modèles sans perdre du terrain commercial, et comment définir objectivement le seuil au-delà duquel un modèle est « trop dangereux » pour être publié ?
Les développeurs et entreprises européens utilisant l'API d'Anthropic n'auront pas accès aux capacités les plus avancées de Mythos, creusant l'écart entre la frontière technologique réelle et les outils commercialement disponibles.


