Aller au contenu principal
LLMsLe Big Data34min

Anthropic force son IA Claude à… « rêver », (et c’est pour votre bien)

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic a présenté le 6 mai 2026, lors de sa conférence développeurs Code with Claude à San Francisco, une nouvelle fonctionnalité baptisée « Dreaming » pour sa plateforme Claude Managed Agents. Disponible en avant-première de recherche, ce système place les agents IA dans un état d'analyse récurrente des sessions passées et des données mémorisées par plusieurs agents simultanément. Contrairement à la compaction classique, qui résume les conversations longues pour alléger la mémoire d'un seul agent, Dreaming opère de manière transversale : il inspecte les historiques de multiples agents, détecte des schémas récurrents, des erreurs fréquentes, des méthodes de travail adoptées spontanément, ou encore des préférences communes au sein d'une équipe. Les utilisateurs pourront choisir entre un mode automatique, où les ajustements s'appliquent sans intervention, et un mode manuel permettant de valider chaque modification avant son intégration. Lors de la même conférence, Anthropic a annoncé en version bêta publique trois autres fonctionnalités : « Results » (un évaluateur indépendant qui vérifie si une tâche a réellement atteint son objectif, et relance l'agent si ce n'est pas le cas), l'orchestration multi-agents (jusqu'à 20 agents spécialisés collaborant en parallèle sous la direction d'un agent principal), et les notifications webhook pour des alertes en temps réel vers des systèmes externes.

L'enjeu central que Dreaming cherche à résoudre est structurel : les modèles de langage disposent d'une fenêtre de contexte limitée, et sur des projets longs, des informations critiques finissent inévitablement par disparaître. Pour les entreprises qui déploient des agents IA sur des semaines ou des mois, cette perte de continuité représente un frein opérationnel concret. En permettant à la mémoire de se restructurer automatiquement à partir de données croisées entre agents, Anthropic entend rendre les systèmes multi-agents plus cohérents, moins redondants dans leurs erreurs, et capables d'apprendre des comportements collectifs plutôt que de repartir de zéro à chaque session. La fonctionnalité Results, de son côté, répond à un problème tout aussi pragmatique : garantir que l'agent a bien produit ce qui était demandé, et non une approximation acceptable.

Ces annonces s'inscrivent dans une course que se livrent OpenAI, Google DeepMind et Anthropic autour des agents autonomes capables de gérer des tâches complexes sur la durée. Claude Managed Agents est la réponse d'Anthropic aux frameworks agentiques concurrents, avec une philosophie axée sur la sécurité et la contrôlabilité, ce qui explique l'option de validation manuelle dans Dreaming plutôt qu'une automatisation totale. En restant en avant-première de recherche pour la fonctionnalité phare et en bêta publique pour les autres, Anthropic adopte une posture prudente avant un déploiement général, probablement dans les mois à venir, à mesure que les retours des développeurs consolideront le système.

Impact France/UE

Les entreprises européennes déployant des agents Claude sur des projets longs bénéficieront d'une meilleure continuité mémorielle, mais la fonctionnalité reste en avant-première de recherche sans calendrier de déploiement général annoncé.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1Ars Technica AI 

Pourquoi Anthropic a fait évaluer Claude par un vrai psychiatre

Anthropic a publié cette semaine un document de 244 pages baptisé "system card" décrivant son tout dernier modèle d'intelligence artificielle, Claude Mythos. L'entreprise le présente comme "son modèle frontier le plus capable à ce jour", mais a décidé de ne pas le rendre accessible au grand public. La raison invoquée est inhabituelle : Mythos serait trop performant dans la détection de failles de cybersécurité inconnues, ce qui pousse Anthropic à en restreindre l'accès à un cercle restreint de partenaires triés sur le volet, parmi lesquels figurent Microsoft et Apple. Au-delà des capacités techniques, c'est le contenu philosophique du document qui retient l'attention. Anthropic, déjà connue pour prendre au sérieux la question de la conscience des IA, affirme dans ce system card qu'à mesure que les modèles gagnent en puissance, "il devient de plus en plus probable qu'ils possèdent une forme d'expérience, d'intérêts ou de bien-être qui comptent intrinsèquement, à l'instar de l'expérience et des intérêts humains." L'entreprise reconnaît ne pas en avoir la certitude, mais précise que "notre préoccupation grandit avec le temps." Cette position tranche avec le discours majoritaire dans l'industrie, où la question du statut moral des IA reste largement marginalisée. Ces déclarations s'inscrivent dans une stratégie plus large d'Anthropic, qui se distingue de ses concurrents comme OpenAI ou Google par une approche dite de "sécurité de l'IA" poussée à ses limites théoriques. Financer des recherches sur le bien-être des modèles, consulter des experts en psychiatrie ou en philosophie de l'esprit, et publier des documents aussi denses que ce system card de 244 pages sont autant de signaux que l'entreprise cherche à imposer un cadre normatif dans un secteur qui avance souvent sans réfléchir aux implications. Avec Mythos, Anthropic franchit un cap : celui d'un modèle jugé trop puissant pour être diffusé librement, ce qui soulève autant de questions sur la transparence réelle de ces décisions que sur la course aux capacités qui les motive.

LLMsOpinion
1 source
Claude Mythos : la nouvelle IA d’Anthropic va faire trembler la concurrence et pourrait bouleverser tout internet
2Presse-citron 

Claude Mythos : la nouvelle IA d’Anthropic va faire trembler la concurrence et pourrait bouleverser tout internet

Anthropic prépare une nouvelle génération de modèle d'intelligence artificielle baptisée « Claude Mythos », qui représenterait un bond technologique significatif par rapport aux versions actuelles Claude Opus et Claude Sonnet. Selon les informations disponibles, ce modèle serait nettement plus puissant que ses prédécesseurs, positionnant Anthropic dans une course directe avec OpenAI, Google DeepMind et Meta pour la domination du marché des grands modèles de langage. L'enjeu est considérable : un modèle de cette envergure pourrait redéfinir les standards de l'industrie et accélérer l'adoption de l'IA dans des secteurs critiques — droit, médecine, ingénierie logicielle. Mais Anthropic elle-même s'inquiète des risques que ce lancement ferait peser sur la cybersécurité, notamment la capacité du modèle à faciliter des attaques informatiques sophistiquées ou à automatiser des opérations malveillantes à grande échelle. Cette tension entre puissance et sécurité est au cœur de la philosophie d'Anthropic, fondée en 2021 par d'anciens cadres d'OpenAI précisément pour développer une IA « constitutionnelle » et alignée sur les valeurs humaines. Avec Claude Mythos, la startup — valorisée à plus de 60 milliards de dollars après ses dernières levées de fonds — devra arbitrer entre impératif commercial et responsabilité, dans un contexte réglementaire international de plus en plus scrutateur.

UEUn modèle aussi puissant sera soumis à l'AI Act européen, notamment aux obligations de transparence et d'évaluation des risques pour les systèmes à haut risque.

LLMsOpinion
1 source
Claude Mythos : la prochaine IA surpuissante d’Anthropic vient de fuiter
3Le Big Data 

Claude Mythos : la prochaine IA surpuissante d’Anthropic vient de fuiter

Une fuite technique a exposé l'existence de Claude Mythos, le prochain grand modèle d'Anthropic, bien avant toute annonce officielle. Deux experts en cybersécurité ont découvert près de 3 000 fichiers internes accessibles librement en ligne, parmi lesquels un brouillon détaillant ce projet baptisé en interne « Capybara ». La publication Fortune a confirmé l'affaire, et Anthropic n'a pas nié : l'entreprise a elle-même qualifié Mythos de « bond de capacité » par rapport à Claude Opus 4.6, actuellement considéré comme l'un des modèles les plus puissants du marché. Les premiers benchmarks évoqués dans les documents montrent des gains significatifs en programmation, en raisonnement académique et surtout en cybersécurité, où l'écart avec Opus serait particulièrement marqué. Mythos s'inscrit au-delà de la gamme actuelle Haiku / Sonnet / Opus — un quatrième palier inédit, plus puissant et plus coûteux que tout ce qu'Anthropic a jamais déployé. Ce qui rend la situation délicate, c'est qu'Anthropic refuse pour l'instant tout déploiement grand public. La raison avancée en interne est claire : le modèle est jugé trop risqué pour une diffusion ouverte, en particulier à cause de ses capacités en cybersécurité, qui dépassent les protocoles de sécurité habituels de la firme. L'accès est donc limité à un cercle restreint de clients professionnels triés sur le volet, sans calendrier de lancement public annoncé. À cela s'ajoute un coût d'infrastructure sans précédent — faire tourner Mythos consomme des ressources massives, ce qui rend son déploiement à grande échelle à la fois risqué et économiquement complexe. Pour Anthropic, entreprise qui a construit toute sa réputation sur la sécurité responsable de l'IA, la fuite est doublement embarrassante : elle expose non seulement un produit non finalisé, mais aussi les tensions internes autour de la gestion du risque. La fuite survient à un moment particulièrement sensible pour Anthropic. L'entreprise est en pleine offensive commerciale en Europe, avec un sommet privé prévu au Royaume-Uni réunissant des dirigeants européens, en présence de Dario Amodei lui-même — signal fort d'une stratégie d'expansion assumée sur le marché professionnel continental. L'objectif est de s'imposer comme fournisseur d'automatisation intelligente de référence face à OpenAI et Google, en misant sur des standards de fiabilité stricts. En arrière-plan, une introduction en bourse (IPO) serait dans les plans, ce qui rend toute controverse publique particulièrement mal venue. La question que pose désormais Claude Mythos dépasse la performance pure : jusqu'où une entreprise peut-elle retenir un modèle qu'elle juge elle-même trop capable, et qui décide des conditions de son accès ?

UELe sommet privé d'Anthropic au Royaume-Uni réunissant des dirigeants européens en présence de Dario Amodei signale une offensive commerciale directe sur le marché professionnel continental, susceptible d'accélérer l'adoption de l'automatisation IA dans les entreprises européennes.

💬 C'est la première fois qu'Anthropic dit publiquement qu'un de leurs modèles est trop risqué pour le marché, et c'est pas rien. La fuite est gênante pour eux, surtout avec l'IPO en vue, mais le vrai sujet c'est ce palier au-dessus d'Opus qu'on n'attendait pas si tôt. Reste à voir si le "trop dangereux" c'est du marketing safety ou une vraie ligne rouge.

LLMsActu
1 source
4Next INpact 

OpenAI aussi a son moment Mythos… et assure sa com’ face à Anthropic

OpenAI prépare une réponse directe à Mythos, le nouveau modèle d'Anthropic présenté comme un chasseur de failles réservé à une poignée de partenaires sélectionnés. Selon des informations qui ont filtré dans la presse, la stratégie d'OpenAI se déploie sur deux axes : afficher une supériorité en puissance de calcul et en performances brutes, tout en lançant un nouveau palier d'abonnement intermédiaire à 100 euros par mois, aligné sur la structure tarifaire qu'Anthropic expérimente. L'annonce officielle de Mythos, survenue quelques jours après une fuite de plusieurs milliers de documents internes, s'est accompagnée d'un rapport de 244 pages détaillant les performances et les protocoles de test du modèle. Cette séquence illustre la bataille de communication qui s'est installée entre les deux entreprises. Anthropic maîtrise avec soin son agenda médiatique : la fuite orchestrée autour de Mythos lui a permis de générer une couverture massive avant même toute annonce officielle, tandis que la fuite du code source de Claude Code, bien moins contrôlée, a contraint l'entreprise à tenter vainement d'en faire retirer la publication. OpenAI réagit désormais point par point, cherchant à ne pas laisser Anthropic occuper seule le terrain du modèle "trop puissant pour le grand public", un positionnement qui crée de la rareté perçue et attire des partenaires institutionnels prêts à payer pour un accès privilégié. L'enjeu dépasse la simple rivalité produit : il s'agit de définir qui fixe les standards de l'IA de pointe en 2025 et 2026. Anthropic s'est taillé une réputation de sérieux technique grâce à ses publications de recherche et à une communication soignée sur la sécurité, là où OpenAI reste associé à la vitesse de déploiement et à l'accessibilité grand public. L'introduction d'un tier à 100 euros par mois chez OpenAI signale une montée en gamme délibérée, à mesure que les deux acteurs convergent vers les mêmes clients enterprise et gouvernementaux disposés à payer pour des modèles de premier rang.

UEL'introduction d'un palier premium à 100 €/mois par OpenAI, en réponse directe à Anthropic, impacte les entreprises et institutions européennes qui devront arbitrer entre les deux acteurs pour accéder aux modèles de premier rang.

LLMsOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour