Aller au contenu principal
Une fuite révèle Claude Mythos, le nouveau modèle Anthropic aux scores nettement supérieurs à tous ses prédécesseurs
LLMsThe Decoder3h

Une fuite révèle Claude Mythos, le nouveau modèle Anthropic aux scores nettement supérieurs à tous ses prédécesseurs

1 source couvre ce sujet·Source originale ↗·

Anthropic a involontairement exposé l'existence de son modèle d'intelligence artificielle le plus puissant à ce jour à cause d'une faille de sécurité élémentaire. Le modèle, baptisé Claude Mythos, afficherait des scores « nettement supérieurs » à tous les modèles précédents de la société sur les benchmarks d'évaluation standards. La fuite, survenue début 2026, n'était pas une annonce planifiée mais bien une erreur technique — un accès non sécurisé ayant laissé filtrer des informations internes sur la prochaine génération de modèles Anthropic.

Cet incident intervient à un moment particulièrement sensible pour l'entreprise : OpenAI prépare également le lancement de sa propre génération suivante de modèles. Pour les deux sociétés, qui cherchent à consolider leur position sur un marché de plus en plus compétitif, la capacité à démontrer une supériorité technique avant une éventuelle introduction en bourse représente un enjeu considérable. La fuite involontaire d'Anthropic pourrait ainsi accélérer la communication officielle autour de Claude Mythos, sous peine de laisser le narratif se construire sans contrôle.

Anthropic, fondée en 2021 par d'anciens membres d'OpenAI dont Dario et Daniela Amodei, a levé plusieurs milliards de dollars ces dernières années auprès d'Amazon et Google notamment. La société a bâti sa réputation sur une approche centrée sur la sécurité des systèmes d'IA avec sa méthodologie « Constitutional AI ». Une annonce officielle autour de Claude Mythos est désormais attendue prochainement, la fuite ayant de facto brûlé l'effet de surprise que l'entreprise réservait probablement pour un événement marketing soigneusement orchestré.

Impact France/UE

L'arrivée prochaine d'un modèle potentiellement de référence influencera les choix technologiques des développeurs et entreprises européens adoptant des solutions d'IA générative.

À lire aussi

1Presse-citron 

Claude Mythos : la nouvelle IA d’Anthropic va faire trembler la concurrence et pourrait bouleverser tout internet

Anthropic prépare une nouvelle génération de modèle d'intelligence artificielle baptisée « Claude Mythos », qui représenterait un bond technologique significatif par rapport aux versions actuelles Claude Opus et Claude Sonnet. Selon les informations disponibles, ce modèle serait nettement plus puissant que ses prédécesseurs, positionnant Anthropic dans une course directe avec OpenAI, Google DeepMind et Meta pour la domination du marché des grands modèles de langage. L'enjeu est considérable : un modèle de cette envergure pourrait redéfinir les standards de l'industrie et accélérer l'adoption de l'IA dans des secteurs critiques — droit, médecine, ingénierie logicielle. Mais Anthropic elle-même s'inquiète des risques que ce lancement ferait peser sur la cybersécurité, notamment la capacité du modèle à faciliter des attaques informatiques sophistiquées ou à automatiser des opérations malveillantes à grande échelle. Cette tension entre puissance et sécurité est au cœur de la philosophie d'Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI précisément pour développer une IA « constitutionnelle » et alignée sur les valeurs humaines. Avec Claude Mythos, la startup — valorisée à plus de 60 milliards de dollars après ses dernières levées de fonds — devra arbitrer entre impératif commercial et responsabilité, dans un contexte réglementaire international de plus en plus scrutateur.

UEUn modèle aussi puissant sera soumis à l'AI Act européen, notamment aux obligations de transparence et d'évaluation des risques pour les systèmes à haut risque.

LLMsOpinion
1 source
2The Decoder 

Anthropic confirme que le modèle divulgué représente un saut qualitatif en raisonnement, après une fuite de données

Anthropic a involontairement révélé l'existence de son modèle d'intelligence artificielle le plus puissant à ce jour à la suite d'une faille de sécurité basique. La fuite de données a exposé un modèle que la société n'avait pas encore annoncé officiellement, et qu'Anthropic a depuis confirmé représenter un « changement d'étape » significatif dans les capacités de raisonnement par rapport à ses versions précédentes. L'incident s'est produit alors que la startup californienne préparait discrètement ce qui s'annonce comme sa prochaine grande sortie publique. La confirmation par Anthropic que ce modèle constitue une avancée majeure en matière de raisonnement donne un aperçu de la direction que prend la course aux grands modèles de langage. Pour les développeurs et les entreprises qui s'appuient sur les API d'Anthropic, cela signifie qu'une nouvelle génération de capacités — vraisemblablement plus performantes sur les tâches complexes et multi-étapes — est imminente. La fuite force également Anthropic à communiquer plus tôt que prévu sur sa feuille de route technique. Cet épisode s'inscrit dans un contexte de compétition intense entre Anthropic et OpenAI, qui prépare simultanément ses propres modèles de nouvelle génération. Les deux sociétés semblent engagées dans une course pour démontrer leur supériorité technique avant d'éventuelles introductions en bourse ou levées de fonds majeures. Pour Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI et valorisée à plusieurs dizaines de milliards de dollars, chaque annonce produit constitue un signal fort pour investisseurs et partenaires commerciaux.

UELes développeurs et entreprises européennes utilisant l'API Claude d'Anthropic bénéficieront prochainement de capacités de raisonnement améliorées, sans impact réglementaire ou institutionnel direct pour la France ou l'UE.

💬 En tant que développeur, je constate à quel point chaque nouveau modèle représente un bond qualitatif majeur. La facilité avec laquelle les nouveaux modèles identifient les limites de leurs prédécesseurs est stupéfiante — et témoigne d'une accélération qui ne montre aucun signe de ralentissement. L'amélioration récursive complète est-elle vraiment si loin ?

LLMsActu
1 source
3Les Numériques IA 

Actualité : “Un seuil a été franchi” : le nouveau modèle de Claude a fuité par erreur, Anthropic évoque des capacités sans précédent

Anthropic a involontairement dévoilé l'existence de son prochain modèle phare, baptisé Claude Mythos, à la suite d'une erreur de configuration dans son système de gestion de contenu. Un brouillon de page interne est brièvement devenu accessible au public, révélant le nom du modèle ainsi que plusieurs formulations suggérant des capacités inédites. La société a rapidement retiré le document, mais des captures d'écran avaient déjà circulé sur les réseaux sociaux et les forums spécialisés. Ce type de fuite est rare chez Anthropic, réputé pour sa discrétion opérationnelle, et l'incident soulève l'attention de l'ensemble du secteur. Le fait que l'entreprise elle-même qualifie les capacités de Mythos de "sans précédent" et évoque un "seuil franchi" laisse entendre un bond qualitatif significatif par rapport à Claude 3.5 et à la série actuelle Claude 4. Pour les développeurs, entreprises et concurrents qui suivent la course aux modèles de fondation, ce signal — même involontaire — pèse lourd dans l'évaluation des dynamiques compétitives. Anthropic se positionne depuis plusieurs années comme l'alternative "safety-first" face à OpenAI et Google DeepMind, avec une communication volontairement mesurée. La fuite de Mythos intervient dans un contexte d'accélération brutale du secteur : GPT-5, Gemini Ultra 2 et plusieurs modèles open-source ont rehaussé les attentes du marché en quelques mois. Si Mythos tient ses promesses implicites, il pourrait redéfinir le positionnement d'Anthropic — et forcer ses rivaux à accélérer leurs propres calendriers de lancement.

UELes acteurs européens qui évaluent ou déploient des modèles de fondation pourraient devoir réévaluer leurs choix technologiques si les capacités annoncées se confirment lors du lancement officiel.

LLMsActu
1 source
4MarkTechPost 

Google publie Gemini 2.0 Flash Live : un modèle vocal multimodal en temps réel pour agents IA

Google a lancé Gemini 3.1 Flash Live en préversion pour les développeurs via la Gemini Live API dans Google AI Studio. Ce nouveau modèle se positionne comme le « modèle audio et vocal de la plus haute qualité » jamais produit par Google, capable de traiter en temps réel des flux multimodaux combinant voix, vidéo et appels d'outils. Concrètement, il accepte de l'audio PCM 16 bits à 16 kHz, renvoie de l'audio PCM natif sans passer par une synthèse vocale séparée, et peut ingérer des flux vidéo à environ une image par seconde. Sur le benchmark ComplexFuncBench Audio, qui mesure la capacité à enchaîner des appels de fonctions complexes à partir de la seule voix, le modèle atteint un score de 90,8 %. Il obtient également 36,1 % sur l'Audio MultiChallenge, un test mesurant la résistance aux interruptions et aux environnements bruités, thème central pour les cas d'usage réels. Ce lancement s'attaque à un problème structurel qui plombait jusque-là les assistants vocaux : la « pile d'attente », enchaînement séquentiel de la détection d'activité vocale, de la transcription, de la génération de texte et de la synthèse vocale. Gemini 3.1 Flash Live court-circuite cette chaîne en traitant l'acoustique directement, sans transcrire au préalable. Le modèle gère mieux la prosodie — ton, débit, hésitations — que son prédécesseur Gemini 2.5 Flash Native Audio, et discrimine la parole pertinente des bruits ambiants comme la circulation ou le brouhaha d'un bureau. L'interface de programmation repose sur un protocole WebSocket bidirectionnel et persistant, permettant la continuité de session, la synchronisation audio-transcription en un seul événement serveur, et le « barge-in » : l'utilisateur peut couper la parole à l'IA en plein milieu d'une phrase, et le modèle interrompt immédiatement sa génération pour traiter le nouvel énoncé. Une fenêtre de contexte de 128 000 tokens supporte la mémoire de session et les définitions d'outils. Ce modèle arrive dans un contexte de compétition intense entre Google, OpenAI et les startups spécialisées dans la voix temps réel. OpenAI avait ouvert la voie avec son mode vocal avancé dans GPT-4o, mais la fiabilité en environnements dégradés restait un talon d'Achille pour l'ensemble de l'industrie. Google mise ici sur la robustesse au bruit et sur l'inférence agentique — la capacité à raisonner et à exécuter des tâches complexes (retrouver des factures, envoyer des e-mails sous conditions) sans passer par un intermédiaire textuel. Pour les développeurs qui construisent des agents d'assistance client, des interfaces mobiles ou des outils professionnels à commande vocale, cette combinaison de faible latence, de multimodalité native et de raisonnement structuré représente un changement de catégorie. Les prochaines étapes attendues concernent la sortie en disponibilité générale et l'intégration dans l'écosystème Vertex AI pour les entreprises.

UELes développeurs européens peuvent accéder dès maintenant à l'API en préversion via Google AI Studio pour construire des agents vocaux, sans impact réglementaire ou institutionnel spécifique à la France/UE.

LLMsActu
1 source