4VentureBeat AI
Anthropic veut contrôler mémoire, évaluations et orchestration des agents, de quoi inquiéter les entreprises
Quelques semaines seulement après le lancement de Claude Managed Agents, Anthropic a enrichi sa plateforme de trois nouvelles fonctionnalités majeures : « Dreaming », « Outcomes » et « Multi-Agent Orchestration ». Dreaming permet aux agents de réviser leurs sessions passées pour construire une mémoire évolutive et détecter des patterns jusque-là invisibles. Outcomes offre aux équipes la possibilité de définir des critères de succès précis pour mesurer la performance de leurs agents. Quant à Multi-Agent Orchestration, elle permet à un agent principal de décomposer des tâches complexes et de les déléguer à des agents spécialisés. L'objectif affiché d'Anthropic est de réduire au minimum l'intervention humaine dans la gestion des agents, en intégrant mémoire, évaluation et orchestration au sein d'une seule et même infrastructure hébergée. Ce repositionnement place Anthropic en concurrence directe avec un écosystème entier d'outils spécialisés que les entreprises utilisent aujourd'hui séparément : LangGraph et CrewAI pour l'orchestration, Pinecone pour la mémoire vectorielle à long terme, DeepEval pour l'évaluation externe, et des équipes humaines entières pour le contrôle qualité. En consolidant toutes ces couches dans un runtime unifié, Anthropic promet une traçabilité complète et un déploiement simplifié. Mais cette intégration verticale soulève des questions sérieuses pour les entreprises. La plateforme tourne sur une infrastructure qu'elles ne contrôlent pas, ce qui peut créer des problèmes de conformité sur la résidence des données, un point critique dans des secteurs régulés comme la finance ou la santé. Par ailleurs, les organisations déjà engagées dans de vastes chantiers de transformation IA ne peuvent pas forcément remplacer leurs systèmes existants du jour au lendemain sans casser leurs workflows. La vraie tension est celle du lock-in. En concentrant mémoire, orchestration et évaluation dans une même couche, Anthropic capte l'essentiel de l'architecture décisionnelle des agents, et les entreprises qui adoptent pleinement la plateforme se retrouvent structurellement dépendantes d'un seul fournisseur. Cette dynamique n'est pas propre à Anthropic : OpenAI et Microsoft poussent également vers des architectures intégrées, au motif que rapprocher orchestration et modèle améliore le contrôle et la cohérence. Mais le mouvement accélère une recomposition du marché où les couches intermédiaires, mémoire, routing, évaluation, risquent d'être absorbées par les grands modèles eux-mêmes. Les entreprises qui ont investi dans des stacks modulaires et flexibles devront arbitrer entre la commodité d'une plateforme tout-en-un et leur capacité à rester agiles face à un marché encore en pleine définition.
UELes entreprises européennes des secteurs régulés (finance, santé) devront évaluer la conformité de l'infrastructure hébergée d'Anthropic avec les exigences de résidence des données imposées par le RGPD.
💬 Anthropic ne vend plus un modèle, il vend une plateforme, et la différence va se payer cash d'ici 18 mois. Mémoire, orchestration, évaluation dans un seul runtime hébergé, c'est séduisant pour les équipes qui gèrent 4 outils différents, mais ça fait une dépendance énorme sur l'architecture décisionnelle complète. Pour les boîtes françaises en finance ou santé, la question de la résidence des données n'est pas rhétorique.