Aller au contenu principal
Anthropic introduit le "dreaming", un système permettant aux agents IA d'apprendre de leurs erreurs
OutilsVentureBeat AI1j

Anthropic introduit le "dreaming", un système permettant aux agents IA d'apprendre de leurs erreurs

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Anthropic a présenté mardi une série de mises à jour majeures pour sa plateforme Claude Managed Agents lors de sa deuxième conférence annuelle Code with Claude, à San Francisco. La nouveauté phare s'appelle le « dreaming » : un mécanisme qui permet aux agents IA de passer en revue leurs sessions passées, d'en extraire des tendances récurrentes et de générer des notes structurées appelées « playbooks », afin de s'améliorer au fil du temps. En parallèle, deux fonctionnalités jusqu'ici expérimentales passent en bêta publique : « outcomes », qui mesure l'efficacité des agents sur des tâches concrètes, et l'orchestration multi-agents, permettant de faire travailler plusieurs instances de Claude simultanément. Les premiers résultats sont frappants : la société d'IA juridique Harvey a multiplié par six son taux de complétion de tâches après avoir intégré le dreaming ; Wisedocs, spécialisée dans la revue de documents médicaux, a réduit ses délais de traitement de 50 % grâce à outcomes ; et Netflix traite désormais les journaux de centaines de builds en parallèle via l'orchestration multi-agents.

Ces annonces s'inscrivent dans un contexte de croissance exponentielle pour Anthropic. Lors d'une discussion à la conférence, le PDG Dario Amodei a révélé que la société avait enregistré au premier trimestre 2026 une croissance annualisée de 80x en revenus et en volume d'utilisation, soit huit fois supérieure aux projections internes qui tablaient sur une multiplication par dix. Le volume d'appels à l'API Claude a progressé de près de 70x en glissement annuel, et les développeurs utilisant Claude Code y consacrent en moyenne vingt heures par semaine. « Nous avions planifié pour un monde à 10x de croissance par an, et nous avons vu 80x », a déclaré Amodei, expliquant ainsi les tensions récentes sur les capacités de calcul de l'entreprise.

Le dreaming se distingue volontairement des systèmes de mémoire conventionnels qu'Anthropic avait déjà lancés plus tôt cette année. Il ne modifie pas les poids du modèle sous-jacent et n'effectue aucun réentraînement : il s'agit d'un processus planifié qui analyse les historiques de sessions, identifie les erreurs récurrentes et les méthodes convergentes entre plusieurs agents, puis consigne ces enseignements sous forme de texte lisible par des humains. Alex Albert, responsable du product management recherche chez Anthropic, compare ce mécanisme à la manière dont un professionnel documente une procédure après l'avoir itérée en pratique, sauf que c'est le modèle lui-même qui effectue cette capitalisation. Toutes les mémoires produites restent inspectables et auditables, ce qui répond directement aux exigences de traçabilité des entreprises souhaitant déployer des agents IA en environnement de production.

💬 Le point de vue du dev

Le nom est gadget, mais le mécanisme est sérieux. Ce que fait le "dreaming", c'est transformer les erreurs d'un agent en documentation structurée, inspectable, qu'une équipe peut vérifier avant de le laisser tourner en prod, et c'est exactement le truc qui manquait pour convaincre les DSI frileux. Harvey à 6x de taux de complétion, c'est le genre de chiffre qui ouvre des budgets.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Claude d'Anthropic introduit une forme de raisonnement prolongé dans ses agents managés
1Ars Technica AI 

Claude d'Anthropic introduit une forme de raisonnement prolongé dans ses agents managés

Lors de sa conférence développeurs "Code with Claude" à San Francisco, Anthropic a dévoilé une nouvelle fonctionnalité expérimentale baptisée "dreaming" pour ses Claude Managed Agents. Concrètement, ce mécanisme consiste en un processus planifié au cours duquel les sessions récentes et les mémoires stockées sont passées en revue, afin d'identifier et de conserver les informations les plus pertinentes pour les tâches futures. La fonctionnalité est actuellement disponible en préversion de recherche et reste limitée aux Managed Agents de la plateforme Claude. Les Managed Agents constituent une couche de haut niveau au-dessus de l'API Messages d'Anthropic, présentée comme un "harnais d'agent préconfiguré et configurable fonctionnant sur une infrastructure gérée". Ils sont conçus pour les cas d'usage où plusieurs agents collaborent sur un même projet pendant plusieurs minutes ou plusieurs heures. L'intérêt du dreaming réside dans la gestion des fenêtres de contexte, intrinsèquement limitées pour tous les grands modèles de langage : sur des projets longs et complexes, des informations cruciales peuvent tout simplement se perdre au fil des échanges. En sélectionnant intelligemment les souvenirs à conserver, Anthropic cherche à rendre ses agents plus cohérents et plus performants sur la durée. Cette innovation s'inscrit dans un effort plus large de l'industrie pour résoudre le problème de la mémoire dans les systèmes d'IA agentiques. Du côté des interfaces de chat, une technique appelée "compaction" est déjà utilisée par de nombreux modèles : les conversations longues sont périodiquement analysées afin de supprimer les informations non essentielles tout en conservant ce qui importe pour le projet en cours. Le dreaming applique une logique similaire à des agents fonctionnant en autonomie sur plusieurs heures. Anthropic, qui fait face à une concurrence croissante d'OpenAI et de Google sur le segment des agents IA, positionne ainsi la plateforme Claude comme un environnement adapté aux flux de travail longs et complexes que les entreprises cherchent à automatiser.

💬 Le problème de la mémoire dans les agents longs, c'est ce qu'on contourne depuis des mois avec des hacks pas glorieux. Là, Anthropic formalise quelque chose de propre : un processus planifié qui trie et consolide les souvenirs utiles, un peu comme la compaction qu'on a déjà côté chat. Reste en preview et limité aux Managed Agents, donc hors de portée pour la plupart des workflows custom pour l'instant.

OutilsOutil
1 source
Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur
2The Decoder 

Claude Code et Cowork permettent désormais à l'IA d'Anthropic de prendre le contrôle de votre ordinateur

Anthropic a annoncé que son assistant IA Claude est désormais capable de prendre directement le contrôle d'un ordinateur Mac ou Windows pour accomplir des tâches à la place de l'utilisateur. Cette fonctionnalité est intégrée à deux produits distincts : Claude Code, l'outil en ligne de commande destiné aux développeurs, et Cowork, une interface de collaboration homme-machine. Concrètement, Claude peut désormais naviguer dans des applications, manipuler des fichiers, remplir des formulaires ou exécuter des séquences d'actions complexes sur le bureau de l'utilisateur, sans intervention humaine à chaque étape. L'enjeu est considérable pour les professionnels techniques comme pour les usages grand public. Un développeur peut confier à Claude Code des tâches de refactorisation, de débogage ou de déploiement qui nécessitaient auparavant une attention manuelle constante. Pour les équipes utilisant Cowork, cela ouvre la voie à une véritable délégation de workflows entiers à l'IA, avec un gain de productivité potentiellement significatif. Cette capacité à agir dans un environnement graphique réel, et non seulement à générer du texte, représente un saut qualitatif dans l'utilité pratique des assistants IA. Cette annonce s'inscrit dans la continuité des travaux d'Anthropic sur le "computer use", une capacité expérimentale présentée fin 2024 via leur API, qui permettait déjà à Claude d'interagir avec des interfaces graphiques dans des environnements contrôlés. Le passage à une intégration native dans des produits grand public comme Claude Code et Cowork marque une étape de maturité. Anthropic entre ainsi en concurrence directe avec OpenAI et son opérateur d'ordinateur, ainsi qu'avec Microsoft Copilot, tous engagés dans la course aux agents IA capables d'agir de manière autonome sur les postes de travail.

UELes développeurs et entreprises européens peuvent désormais déléguer des workflows complets à l'IA via Claude Code et Cowork, sans attendre un équivalent européen — renforçant la dépendance du marché européen aux agents autonomes américains.

OutilsOutil
1 source
Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée
3InfoQ AI 

Anthropic conçoit un système à trois agents pour le développement full-stack de longue durée

Anthropic a présenté une architecture expérimentale baptisée "three-agent harness", un dispositif en trois agents distincts conçu pour améliorer les workflows de développement logiciel autonome sur de longues durées. Le système dissocie trois fonctions jusqu'alors souvent mélangées dans un seul agent : la planification, la génération de code et l'évaluation des résultats. Chaque rôle est confié à un agent spécialisé, ce qui permet d'orchestrer des sessions de développement frontend et full-stack pouvant s'étendre sur plusieurs heures sans perte de cohérence. L'enjeu est considérable pour les équipes qui misent sur l'IA pour accélérer leur cycle de développement. En isolant l'évaluation dans un agent dédié, le système introduit une boucle de rétroaction itérative qui maintient la qualité du code généré même lorsque la tâche devient complexe ou que le contexte s'allonge. C'est précisément ce point de rupture, la dégradation des performances sur des tâches longues et multi-fichiers, qui freine l'adoption de l'IA en développement professionnel. Cette approche s'inscrit dans une réflexion plus large de l'industrie sur les "multi-agent systems", où la spécialisation des rôles permet de dépasser les limites d'un agent unique. Anthropic n'est pas seul sur ce terrain : OpenAI, Google DeepMind et des startups comme Cognition (Devin) explorent des architectures similaires. La publication de ce harness, accompagnée de commentaires techniques de l'industrie, suggère qu'Anthropic cherche à poser un standard méthodologique autant qu'à démontrer une capacité technique.

UELes équipes de développement européennes pourraient à terme bénéficier de cette architecture pour des workflows de codage assisté de longue durée, mais l'impact reste indirect et non immédiat.

💬 Le vrai problème sur les tâches longues, c'est que l'agent finit par se perdre entre ce qu'il planifie, ce qu'il génère et ce qu'il valide. Trois agents spécialisés avec une boucle d'évaluation dédiée, c'est la bonne architecture pour tenir sur plusieurs heures sans perdre le fil sur un projet multi-fichiers. Anthropic cherche clairement à poser un standard ici, pas juste à montrer une démo.

OutilsOutil
1 source
AutoAgent : la bibliothèque open source qui permet à une IA d'optimiser son propre système d'agents
4MarkTechPost 

AutoAgent : la bibliothèque open source qui permet à une IA d'optimiser son propre système d'agents

Kevin Gu, ingénieur chez thirdlayer.inc, a publié AutoAgent, une bibliothèque open source qui automatise l'optimisation des agents IA. En l'espace de 24 heures d'exécution autonome, le système a atteint la première place sur SpreadsheetBench avec un score de 96,5 %, et la meilleure performance GPT-5 sur TerminalBench avec 55,1 %. Le projet est disponible sur GitHub avec une architecture délibérément minimaliste : un fichier agent.py qui contient l'intégralité du harness sous test, un fichier program.md que l'humain édite pour donner la directive, et un journal d'expériences results.tsv maintenu automatiquement par le méta-agent pour tracer l'historique de chaque run. Le principe est simple mais radical : là où un ingénieur IA passe des journées à ajuster manuellement les prompts système, les définitions d'outils et la logique d'orchestration de son agent, AutoAgent confie cette boucle d'itération à un second agent, le méta-agent, qui lit la directive, inspecte agent.py, exécute le benchmark, analyse les échecs, réécrit les parties pertinentes et recommence. L'humain ne touche jamais agent.py directement. Ce ratchet loop, proposer une modification, mesurer le score, conserver si meilleur, rejeter sinon, est directement inspiré du projet autoresearch d'Andrej Karpathy, qui applique la même logique à l'entraînement de modèles ML. AutoAgent transpose ce mécanisme au niveau du harness : le prompt système, les outils disponibles, le routage entre sous-agents et la stratégie d'orchestration. Concrètement, toute équipe qui développe des agents complexes pourrait déléguer la phase d'optimisation la plus fastidieuse à un processus nocturne entièrement automatisé, réduisant drastiquement le temps humain consacré au réglage fin. Cette publication s'inscrit dans une tendance plus large d'automatisation de l'ingénierie IA elle-même, souvent désignée sous le terme "méta-apprentissage" ou "self-improvement". Depuis que les LLMs ont démontré leur capacité à écrire et modifier du code de manière fiable, plusieurs laboratoires et chercheurs indépendants explorent des architectures où un modèle supervise l'amélioration d'un autre, ou de lui-même. AutoAgent se distingue par sa portée pratique immédiate : il ne requiert pas d'infrastructure exotique, s'appuie sur le format Harbor pour exprimer les benchmarks, et peut être adapté à n'importe quel domaine via les dossiers tasks/ et .agent/. Les résultats sur TerminalBench et SpreadsheetBench, deux benchmarks reconnus dans la communauté, donnent une crédibilité concrète à l'approche. La question ouverte reste celle du contrôle : lorsqu'un méta-agent réécrit librement la logique d'orchestration d'un système en production, les garanties de sécurité et de prévisibilité du comportement final deviennent un enjeu non trivial que la bibliothèque n'adresse pas encore explicitement.

💬 C'est exactement la boucle que tout dev d'agents rêve d'automatiser, et là quelqu'un l'a fait en un seul fichier. Le score sur SpreadsheetBench est bluffant, bon, reste à voir ce que ça donne sur des tâches moins balisées qu'un benchmark. La vraie question, c'est quand le méta-agent commence à réécrire l'orchestration en prod sans que tu comprennes pourquoi ça marche.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour