Aller au contenu principal

Dossier Claude Mythos — page 3

102 articles · page 3 sur 3

Mythos, le modèle d'Anthropic spécialisé en cybersécurité offensive : annonces Glasswing, fuites, accès restreint à 50 entreprises et débats régulatoires.

101AI News InfrastructureOpinion

IBM : une gouvernance rigoureuse de l'IA protège les marges des entreprises

Rob Thomas, vice-président senior et directeur commercial d'IBM, a récemment exposé une thèse structurante pour les décideurs technologiques : les logiciels suivent une trajectoire prévisible, passant du statut de produit à celui de plateforme, puis d'infrastructure fondamentale. Chaque transition modifie radicalement les règles du jeu. IBM estime que l'intelligence artificielle franchit actuellement ce dernier seuil dans l'architecture des grandes entreprises, passant d'un outil expérimental à une couche opérationnelle centrale, intégrée dans la sécurité réseau, la génération de code, les décisions automatisées et la création de valeur commerciale. Cette évolution a été mise en lumière par la préversion de Claude Mythos, le nouveau modèle d'Anthropic capable, selon l'entreprise, de détecter et exploiter des vulnérabilités logicielles à un niveau comparable aux meilleurs experts humains. Face à ce pouvoir, Anthropic a lancé le projet Glasswing, une initiative sélective visant à placer ces capacités en priorité entre les mains des équipes de défense réseau. Pour IBM, cette réalité crée une exposition opérationnelle majeure pour toute organisation dont la stratégie repose sur des modèles d'IA fermés et propriétaires. Lorsqu'un système autonome peut rédiger des exploits et influencer l'environnement de sécurité global, concentrer la compréhension de ces systèmes chez un petit nombre de fournisseurs devient un risque structurel grave. Les architectures opaques génèrent également des frictions concrètes : connecter un modèle propriétaire à des bases de données vectorielles d'entreprise ou à des lacs de données sensibles crée des goulots d'étranglement de débogage considérables. Quand un modèle produit des sorties anormales ou que le taux d'hallucination augmente, les équipes techniques n'ont pas la visibilité interne nécessaire pour déterminer si l'erreur provient du pipeline de génération augmentée par récupération ou des poids du modèle de base. S'y ajoutent des problèmes de latence liés à l'intégration d'architectures sur site avec des modèles cloud verrouillés, ainsi que des coûts de calcul liés aux appels API continus qui érodent précisément les marges que ces systèmes sont censés préserver. La thèse d'IBM s'inscrit dans un débat plus large sur l'avenir de l'IA en entreprise : à l'ère des modèles-produits, la fermeture était une stratégie défendable et lucrative. À l'ère de l'IA-infrastructure, elle devient un handicap compétitif et sécuritaire. Aucun fournisseur unique ne peut anticiper tous les vecteurs d'attaque, les défaillances système ou les besoins opérationnels d'un écosystème aussi hétérogène que celui des grandes entreprises. IBM plaide donc pour une gouvernance ouverte et inspectable de l'IA, où la priorité n'est plus seulement ce que les modèles peuvent faire, mais comment ils sont construits, audités et améliorés dans la durée. Dans ce contexte, des initiatives comme Glasswing d'Anthropic signalent une prise de conscience sectorielle, mais la question de qui contrôle et comprend réellement ces infrastructures critiques reste entière.

UELa thèse d'IBM sur la gouvernance ouverte de l'IA s'aligne avec les exigences de l'AI Act européen en matière de transparence et d'auditabilité des systèmes IA déployés dans des infrastructures critiques.

1 source
Actualité : “Un seuil a été franchi” : le nouveau modèle de Claude a fuité par erreur, Anthropic évoque des capacités sans précédent
102Les Numériques IA 

Actualité : “Un seuil a été franchi” : le nouveau modèle de Claude a fuité par erreur, Anthropic évoque des capacités sans précédent

Anthropic a involontairement dévoilé l'existence de son prochain modèle phare, baptisé Claude Mythos, à la suite d'une erreur de configuration dans son système de gestion de contenu. Un brouillon de page interne est brièvement devenu accessible au public, révélant le nom du modèle ainsi que plusieurs formulations suggérant des capacités inédites. La société a rapidement retiré le document, mais des captures d'écran avaient déjà circulé sur les réseaux sociaux et les forums spécialisés. Ce type de fuite est rare chez Anthropic, réputé pour sa discrétion opérationnelle, et l'incident soulève l'attention de l'ensemble du secteur. Le fait que l'entreprise elle-même qualifie les capacités de Mythos de "sans précédent" et évoque un "seuil franchi" laisse entendre un bond qualitatif significatif par rapport à Claude 3.5 et à la série actuelle Claude 4. Pour les développeurs, entreprises et concurrents qui suivent la course aux modèles de fondation, ce signal — même involontaire — pèse lourd dans l'évaluation des dynamiques compétitives. Anthropic se positionne depuis plusieurs années comme l'alternative "safety-first" face à OpenAI et Google DeepMind, avec une communication volontairement mesurée. La fuite de Mythos intervient dans un contexte d'accélération brutale du secteur : GPT-5, Gemini Ultra 2 et plusieurs modèles open-source ont rehaussé les attentes du marché en quelques mois. Si Mythos tient ses promesses implicites, il pourrait redéfinir le positionnement d'Anthropic — et forcer ses rivaux à accélérer leurs propres calendriers de lancement.

UELes acteurs européens qui évaluent ou déploient des modèles de fondation pourraient devoir réévaluer leurs choix technologiques si les capacités annoncées se confirment lors du lancement officiel.

LLMsActu
1 source