
Pourquoi Mythos d'Anthropic a galvanisé l'industrie chinoise de la cybersécurité
Le modèle d'intelligence artificielle Claude Mythos Preview, développé par la start-up américaine Anthropic, a suscité une vive réaction dans les milieux de la cybersécurité et de la finance en Chine. Ce système se distingue par sa capacité à identifier et exploiter de manière autonome des vulnérabilités dans des systèmes informatiques d'entreprise et financiers, à un niveau qui surpasse les outils conventionnels actuellement déployés dans ces secteurs. Le modèle n'a pas été rendu public, ce qui n'a pas empêché son existence d'alimenter de nombreuses discussions dans l'industrie chinoise.
L'impact est double : côté défensif, les équipes de sécurité voient dans ce type de modèle un accélérateur pour la détection de failles avant qu'elles ne soient exploitées malicieusement ; côté offensif, la perspective d'un outil IA capable de mener des attaques autonomes modifie profondément le calcul des risques pour les institutions financières et les infrastructures critiques. Pour les professionnels de la cybersécurité en Chine, l'émergence de telles capacités chez un acteur américain constitue à la fois un signal d'alerte et une source d'inspiration pour leurs propres développements.
Ce regain d'intérêt s'inscrit dans la compétition technologique sino-américaine autour de l'IA, où chaque avancée d'un camp alimente la course de l'autre. Anthropic, fondée en 2021 par d'anciens chercheurs d'OpenAI, s'est imposée comme l'un des acteurs les plus sérieux du secteur, avec des modèles Claude reconnus pour leurs performances en raisonnement complexe. Le fait que Mythos ne soit pas encore accessible au grand public n'a fait qu'amplifier la curiosité et les spéculations autour de ses capacités réelles.
Les infrastructures critiques et institutions financières européennes sont exposées aux mêmes risques offensifs liés à l'IA autonome, renforçant l'urgence d'adapter les cadres NIS2 et DORA à ces nouvelles menaces.




