
Claude Mythos, une IA vraiment trop puissante pour notre propre bien ?
L'entreprise d'IA Anthropic a annoncé un nouveau grand modèle de langage baptisé Claude Mythos, accompagnant cette sortie d'une mise en garde inhabituelle : le modèle serait capable de "révolutionner la cybersécurité", mais pas nécessairement dans l'intérêt général. Cette déclaration, volontairement alarmante, illustre une stratégie de communication propre à Anthropic, qui publie systématiquement des fiches de sécurité ("system cards") détaillant les risques potentiels de ses modèles avant ou lors de leur lancement.
Le signal envoyé est clair : Claude Mythos atteindrait un niveau de compétence suffisant pour assister à la conception ou à l'exploitation de failles de sécurité informatique, ce qui en ferait un outil à double tranchant pour les professionnels du secteur. Pour les entreprises, les gouvernements et les chercheurs en sécurité offensive et défensive, cela signifie que les barrières techniques séparant un attaquant averti d'un novice pourraient se réduire significativement. C'est précisément ce type de capacité, qualifiée d'"uplift" dans le jargon de la sécurité IA, qui inquiète les régulateurs et les experts en biosécurité et cybersécurité depuis plusieurs années.
Anthropic se distingue de ses concurrents OpenAI et Google DeepMind par cette transparence proactive sur les risques de ses propres systèmes, une posture cohérente avec son positionnement d'entreprise fondée sur la sécurité IA ("AI safety"). La question qui se pose désormais est celle du contrôle d'accès : quels garde-fous techniques et contractuels Anthropic mettra-t-il en place pour limiter l'usage malveillant de Claude Mythos, et dans quelle mesure ces mesures seront-elles suffisantes face à des acteurs déterminés à contourner les restrictions.
Les capacités d'"uplift" en cybersécurité de Claude Mythos interpellent les régulateurs européens, qui devront évaluer la suffisance des garde-fous d'Anthropic au regard des exigences de l'AI Act pour les modèles à usage général à haut risque.
Anthropic joue encore la carte de la transparence proactive, et c'est plus rigoureux que les lancements en mode "fais-nous confiance" d'OpenAI. Publier une system card alarmiste sur un modèle qu'on sort quand même, ça couvre les arrières autant que ça informe. La vraie question, tu la connais déjà : qui vérifie que les garde-fous tiennent face à quelqu'un de vraiment motivé ?


