Aller au contenu principal
OutilsVentureBeat AI19min

Anthropic rétablit OpenClaw et les agents tiers sur les abonnements Claude, mais sous conditions

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic a annoncé le 14 mai 2026, via son compte développeur @ClaudeDevs sur X, la réintégration d'OpenClaw et des agents autonomes tiers dans ses abonnements payants Claude. La société introduit une nouvelle sous-catégorie de crédits baptisée "Agent SDK", disponible pour tous les abonnés payants, des formules Pro à 20 dollars par mois jusqu'aux formules Max à 200 dollars. Ces crédits sont exclusivement dédiés aux usages "programmatiques", c'est-à-dire l'exécution d'agents IA externes comme OpenClaw, un outil open source populaire permettant de faire tourner des agents autonomes via des services comme Discord ou Telegram. Cette annonce constitue un revirement majeur par rapport à la politique instaurée début avril 2026, qui interdisait explicitement l'usage des abonnements Claude pour alimenter ces agents tiers.

Le retour en arrière n'est cependant pas sans conditions : les crédits "Agent SDK" sont plafonnés à un montant fixe mensuel et ne sont pas reportables. S'ils ne sont pas consommés avant la fin du mois, ils expirent. Ce changement répond à un problème financier structurel qu'Anthropic ne pouvait plus ignorer : certains abonnés payant entre 20 et 200 dollars par mois consommaient, via OpenClaw et des harnesses similaires, des centaines voire des milliers de dollars de tokens au-dessus du prix de leur abonnement. Avec ce nouveau système, si un agent est inefficace et brûle les tokens rapidement, c'est le crédit mensuel de l'utilisateur qui s'épuise, et non le pool de calcul général d'Anthropic. La société n'a donc plus à "absorber la différence" générée par du code tiers non optimisé.

La genèse de cette crise remonte au 4 avril 2026, date à laquelle Anthropic avait banni l'usage des abonnements pour les agents tiers, en invoquant des problèmes de capacité et de stabilité du service. Boris Cherny, responsable de Claude Code, avait alors expliqué que les outils tiers comme OpenClaw contournaient les mécanismes de "prompt cache", une technique permettant de réutiliser du texte déjà traité pour réduire les cycles de calcul coûteux. Les agents tiers, souvent non optimisés pour ces efficiences, forçaient le système à retraiter massivement des données, menaçant la stabilité pour l'ensemble des utilisateurs. Même l'accès au datacenter Colossus 1, fort de plus de 220 000 GPU et d'une capacité de 300 mégawatts, ne suffisait pas à absorber la demande des workflows agentiques non maîtrisés. En cloisonnant désormais cet usage dans une enveloppe dédiée non mutualisée, Anthropic tente de réconcilier la demande croissante pour les agents autonomes avec la viabilité économique de ses abonnements à tarif forfaitaire.

Impact France/UE

Les développeurs européens utilisant OpenClaw ou des agents autonomes tiers avec Claude devront désormais gérer une enveloppe mensuelle de crédits « Agent SDK » plafonnée et non reportable, changeant la gestion de leurs workflows agentiques.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic bloque l'utilisation des abonnements Claude avec OpenClaw et les agents IA tiers
1VentureBeat AI 

Anthropic bloque l'utilisation des abonnements Claude avec OpenClaw et les agents IA tiers

Anthropic a annoncé le 4 avril 2026 que ses abonnements Claude Pro (20 dollars par mois) et Max (100 à 200 dollars par mois) ne permettront plus d'alimenter des agents IA tiers comme OpenClaw. À partir de ce samedi à 12h heure du Pacifique, les utilisateurs qui branchaient ces outils externes sur leur abonnement Claude devront basculer vers un système de facturation à l'usage appelé "Extra Usage", ou passer par l'API officielle d'Anthropic qui facture chaque token consommé. Pour atténuer la transition, la société offre aux abonnés existants un crédit unique égal au prix de leur abonnement mensuel, utilisable jusqu'au 17 avril, ainsi qu'une réduction allant jusqu'à 30 % pour les achats anticipés de forfaits "Extra Usage". La mesure ne concerne pas clairement les abonnements Team et Enterprise, et Anthropic n'avait pas encore confirmé leur statut au moment de l'annonce. La décision illustre une tension croissante entre la démocratisation des outils IA et la viabilité économique des abonnements forfaitaires. Boris Cherny, responsable de Claude Code chez Anthropic, a expliqué sur X que les outils tiers ne sont pas optimisés pour exploiter le "prompt cache" — un mécanisme qui réutilise les textes déjà traités pour réduire la charge de calcul. Les outils propriétaires d'Anthropic comme Claude Code et Claude Cowork sont conçus pour maximiser ce taux de réutilisation, tandis que des plateformes comme OpenClaw le contournent, générant une consommation de ressources disproportionnée. Selon le growth marketer Aakash Gupta, un seul agent OpenClaw actif pendant une journée peut brûler jusqu'à 1 000 dollars de compute, une charge incompatible avec un abonnement mensuel à 20 dollars. Cette décision s'inscrit dans un contexte de demande explosive pour Claude. Dans les semaines précédant l'annonce, Anthropic avait déjà introduit des limites de session plus strictes, réduisant le nombre de tokens disponibles par tranche de 5 heures pendant les heures de pointe, une mesure qui avait frustré de nombreux utilisateurs intensifs. La société a indiqué que ces changements n'affectaient qu'environ 7 % des utilisateurs à un instant donné, mais la communauté des développeurs y voit un signal clair : l'ère du forfait illimité pour usages avancés est terminée. Cherny a précisé avoir lui-même soumis des pull requests pour améliorer le taux de cache d'OpenClaw en particulier, soulignant que la rupture n'est pas idéologique mais économique. Pour les équipes qui s'appuyaient sur ces intégrations en production, la transition vers l'API représente une hausse de coûts significative, et potentiellement un avantage compétitif pour les outils natifs d'Anthropic.

UELes développeurs français et européens qui utilisaient des agents tiers comme OpenClaw avec un abonnement Claude Pro/Max devront migrer vers l'API payante à l'usage, entraînant une hausse de coûts significative pour les équipes en production.

💬 Brûler 1000 dollars de compute pour un abonnement à 20 euros par mois, c'était intenable. Anthropic ferme le robinet, c'est logique, mais ça profite aussi très directement à leurs propres outils (Claude Code en tête, ça tombe bien). Les équipes qui avaient branché OpenClaw en prod vont devoir sortir le chéquier.

BusinessOpinion
1 source
Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
2VentureBeat AI 

Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi

L'ère des agents autonomes d'intelligence artificielle est désormais une réalité concrète. Trois outils dominent aujourd'hui ce nouveau paysage : OpenClaw (anciennement Moltbot et Clawdbot), qui a dépassé les 150 000 étoiles sur GitHub en quelques jours et s'installe directement sur les machines locales avec un accès profond au système ; Google Antigravity, un agent de codage intégré à un environnement de développement capable de mener un projet de l'idée à la production de façon interactive ; et Claude Cowork d'Anthropic, qui automatise des tâches juridiques et financières spécialisées comme la révision de contrats et le tri de NDA. Son lancement a d'ailleurs provoqué une chute notable des cours boursiers de plusieurs sociétés de legal-tech et de SaaS, un phénomène baptisé « SaaSpocalypse » par les analystes. Ces trois outils représentent trois modèles distincts d'autonomie : l'agent généraliste avec accès système, l'agent spécialiste du code, et l'agent expert métier. L'impact de ces technologies est déjà mesurable. Claude Cowork, en s'attaquant au droit et à la finance, menace directement des catégories entières de logiciels professionnels et de prestataires humains. La valeur de ces agents repose précisément sur l'étendue de l'accès qu'on leur accorde, fichiers, données sensibles, systèmes critiques, ce qui démultiplie leur efficacité mais aussi leur potentiel de nuisance. Un agent fiscal pourrait manquer des opportunités d'économies importantes, ou pire, intégrer des déductions illégales. Un agent de code pourrait injecter des failles silencieuses dans une infrastructure entière. La question centrale n'est plus technique mais systémique : jusqu'où faire confiance à des entités comme Anthropic ou Google pour que leurs agents ne causent pas de préjudice, ne fuient pas des données ou ne favorisent pas certains acteurs de façon illicite ? Ce virage agentic s'inscrit dans une accélération amorcée avec ChatGPT fin 2022, mais qui prend aujourd'hui une dimension inédite avec des agents capables d'agir, pas seulement de répondre. OpenClaw complique davantage l'équation en étant open source : sans autorité centrale de gouvernance, le contrôle des usages devient pratiquement impossible. Face à ce chaos organisé, plusieurs conditions apparaissent indispensables pour tirer parti de ces outils sans en subir les effets négatifs : journalisation systématique de chaque action de l'agent, validation humaine sur les décisions critiques, et surtout l'établissement d'une ontologie partagée entre systèmes hétérogènes pour définir un cadre commun de comportement. Combinés à des mécanismes d'identité distribuée et de confiance mutuelle entre agents, ces garde-fous pourraient permettre à l'écosystème agentic de tenir ses promesses sans déclencher la panique que redoutent les observateurs les plus prudents.

UELa disruption des marchés legal-tech et SaaS décrite menace des entreprises européennes opérant dans ces secteurs, dans un vide réglementaire concernant les agents autonomes.

💬 La SaaSpocalypse, c'est pas un buzzword de journaliste en manque d'inspiration, c'est ce qui arrive quand un agent fait en 30 secondes ce pour quoi une boîte facturait 300€ par mois. Ce qui me préoccupe vraiment, c'est OpenClaw : open source sans gouvernance centrale, le contrôle des usages devient une blague. Les logs et la validation humaine, bonne idée sur le papier, mais ça n'empêchera pas le premier incident sérieux.

OutilsOutil
1 source
Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi
3VentureBeat AI 

Claude, OpenClaw et la nouvelle réalité : les agents IA sont là, et le chaos aussi

L'ère des agents IA autonomes est désormais une réalité concrète, portée par trois outils majeurs qui redéfinissent ce que les logiciels peuvent accomplir sans intervention humaine. OpenClaw, anciennement connu sous les noms Moltbot et Clawdbot, a dépassé les 150 000 étoiles sur GitHub en quelques jours après son lancement et s'installe directement sur les machines locales avec un accès profond au système : tri de boîte mail, réponses automatiques, curation de contenu, planification de voyages. Google Antigravity, lui, est un agent de développement doté d'un environnement intégré capable de passer d'une simple instruction à une application fonctionnelle, écriture, test, intégration et correction de bugs compris. Enfin, Anthropic a dévoilé Claude Cowork, un agent spécialisé pour des secteurs comme le droit et la finance, capable d'automatiser la revue de contrats ou le tri de documents juridiques. Son annonce a provoqué une chute notable des actions de sociétés de legal-tech et de SaaS, un phénomène rapidement baptisé "SaaSpocalypse" par les observateurs du marché. L'impact de ces agents va bien au-delà de la simple automatisation de tâches répétitives. En confiant à ces systèmes un accès à des données sensibles, fichiers personnels, détails financiers, documents légaux, les utilisateurs délèguent une autorité réelle sur des décisions à fort enjeu. Les risques sont proportionnels à la puissance accordée : un agent fiscal pourrait manquer des économies importantes ou, à l'inverse, inclure des déductions illégales ; un agent de développement pourrait injecter du code défectueux ou introduire des failles invisibles dans des systèmes critiques. La question de la confiance envers les fournisseurs comme Anthropic ou Google devient donc centrale, d'autant qu'OpenClaw, en tant que projet open source, ne dispose d'aucune autorité centrale de gouvernance pour encadrer les usages. Ce basculement vers l'IA agentique s'inscrit dans une trajectoire commencée fin 2022 avec l'émergence des chatbots conversationnels, mais qui s'accélère désormais vers des systèmes capables d'agir, pas seulement de répondre. La crainte d'une intelligence artificielle générale (AGI) n'est plus de la science-fiction pour de nombreux chercheurs. Face à ce chaos organisé, les experts s'accordent sur quelques impératifs : journalisation des actions des agents, validation humaine sur les décisions critiques, et développement d'une ontologie partagée permettant à des agents hétérogènes de communiquer dans un langage commun. Un cadre de responsabilité, de transparence et de sécurité, associé à une infrastructure d'identité distribuée, apparaît comme la condition sine qua non pour que ces écosystèmes agentiques tiennent leurs promesses sans déclencher la prochaine grande panique technologique.

UELa disruption des secteurs legal-tech et SaaS par des agents IA autonomes (droit, finance) menace directement des entreprises européennes positionnées sur ces marchés, sans cadre réglementaire adapté à ce niveau d'autonomie agentique.

OutilsOutil
1 source
Claude d'Anthropic introduit une forme de raisonnement prolongé dans ses agents managés
4Ars Technica AI 

Claude d'Anthropic introduit une forme de raisonnement prolongé dans ses agents managés

Lors de sa conférence développeurs "Code with Claude" à San Francisco, Anthropic a dévoilé une nouvelle fonctionnalité expérimentale baptisée "dreaming" pour ses Claude Managed Agents. Concrètement, ce mécanisme consiste en un processus planifié au cours duquel les sessions récentes et les mémoires stockées sont passées en revue, afin d'identifier et de conserver les informations les plus pertinentes pour les tâches futures. La fonctionnalité est actuellement disponible en préversion de recherche et reste limitée aux Managed Agents de la plateforme Claude. Les Managed Agents constituent une couche de haut niveau au-dessus de l'API Messages d'Anthropic, présentée comme un "harnais d'agent préconfiguré et configurable fonctionnant sur une infrastructure gérée". Ils sont conçus pour les cas d'usage où plusieurs agents collaborent sur un même projet pendant plusieurs minutes ou plusieurs heures. L'intérêt du dreaming réside dans la gestion des fenêtres de contexte, intrinsèquement limitées pour tous les grands modèles de langage : sur des projets longs et complexes, des informations cruciales peuvent tout simplement se perdre au fil des échanges. En sélectionnant intelligemment les souvenirs à conserver, Anthropic cherche à rendre ses agents plus cohérents et plus performants sur la durée. Cette innovation s'inscrit dans un effort plus large de l'industrie pour résoudre le problème de la mémoire dans les systèmes d'IA agentiques. Du côté des interfaces de chat, une technique appelée "compaction" est déjà utilisée par de nombreux modèles : les conversations longues sont périodiquement analysées afin de supprimer les informations non essentielles tout en conservant ce qui importe pour le projet en cours. Le dreaming applique une logique similaire à des agents fonctionnant en autonomie sur plusieurs heures. Anthropic, qui fait face à une concurrence croissante d'OpenAI et de Google sur le segment des agents IA, positionne ainsi la plateforme Claude comme un environnement adapté aux flux de travail longs et complexes que les entreprises cherchent à automatiser.

💬 Le problème de la mémoire dans les agents longs, c'est ce qu'on contourne depuis des mois avec des hacks pas glorieux. Là, Anthropic formalise quelque chose de propre : un processus planifié qui trie et consolide les souvenirs utiles, un peu comme la compaction qu'on a déjà côté chat. Reste en preview et limité aux Managed Agents, donc hors de portée pour la plupart des workflows custom pour l'instant.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour