Aller au contenu principal
Le responsable produit de Claude Code évoque les limites d'utilisation, la transparence et le « lean harness »
OutilsArs Technica AI3h

Le responsable produit de Claude Code évoque les limites d'utilisation, la transparence et le « lean harness »

Résumé IASource uniqueImpact UE
Source originale ↗·

Anthropic a organisé le 8 mai dernier sa deuxième conférence annuelle "Code with Claude" à San Francisco, dans un parking à étages reconverti en espace événementiel. L'événement a permis à l'entreprise de présenter de nouvelles fonctionnalités pour ses Managed Agents et d'annoncer un accord de calcul avec SpaceX. Dans la foulée, Anthropic a doublé les limites d'utilisation de Claude Code pour les abonnés aux plans Pro et Max, une décision directement motivée par les frustrations croissantes des utilisateurs face à des contraintes de ressources particulièrement sévères ces dernières semaines. Cat Wu, responsable produit de Claude Code chez Anthropic, a accordé une interview de trente minutes à Ars Technica en marge de l'événement.

Ce doublement des limites représente une réponse concrète à une tension de fond : Claude Code consomme une quantité de tokens et de calcul nettement supérieure à celle d'un usage conversationnel classique, ce qui met sous pression l'infrastructure d'Anthropic et génère des blocages pour les développeurs qui en font un usage intensif. Pour les professionnels qui intègrent Claude Code dans leur flux de travail quotidien, cette contrainte pouvait se traduire par des interruptions de service en milieu de journée, rendant l'outil peu fiable en production.

Anthropic assume publiquement l'absence d'une feuille de route à long terme pour Claude Code, pari assumé sur le fait que les progrès rapides des modèles rendront tout plan figé rapidement obsolète. La philosophie de l'équipe repose sur ce qu'elle appelle un "lean harness" : un cadre d'exécution minimaliste qui laisse le maximum de latitude au modèle plutôt que de l'enfermer dans une architecture rigide. L'accord avec SpaceX pour de la capacité de calcul illustre la stratégie d'Anthropic pour absorber une demande en forte hausse, dans un marché où la concurrence entre outils de développement assistés par IA s'intensifie rapidement.

Impact France/UE

Les développeurs français et européens abonnés aux plans Pro ou Max bénéficient directement du doublement des limites d'utilisation, réduisant les interruptions de service en production.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux
1The Decoder 

Anthropic explique que la consommation de Claude Code est due aux limites aux heures de pointe et aux contextes trop volumineux

Anthropic a publié une explication officielle pour répondre aux nombreuses plaintes d'utilisateurs de Claude Code qui voyaient leurs quotas s'épuiser beaucoup plus vite qu'attendu. Deux facteurs principaux sont en cause : des limitations renforcées aux heures de pointe, lorsque la demande sur les serveurs est la plus forte, et l'accumulation progressive du contexte au fil des sessions de travail, qui fait exploser la consommation de tokens sans que l'utilisateur s'en rende compte. Ce phénomène touche directement les développeurs qui utilisent Claude Code pour des tâches longues et itératives. Un contexte de conversation qui gonfle au fil des échanges peut consommer autant de tokens que plusieurs requêtes indépendantes, vidant rapidement les allocations mensuelles ou quotidiennes. Anthropic a accompagné ses explications de conseils pratiques pour limiter cette consommation, notamment en réinitialisant régulièrement le contexte. Cette clarification intervient alors que Claude Code connaît une adoption rapide parmi les équipes de développement, créant une pression croissante sur l'infrastructure d'Anthropic. La gestion des quotas reste un point sensible pour les abonnés professionnels, et la transparence de l'entreprise sur ce sujet vise à maintenir la confiance des utilisateurs les plus intensifs, dans un marché des assistants de code de plus en plus concurrentiel face à GitHub Copilot et Cursor.

UELes développeurs européens utilisant Claude Code sont directement concernés par ces limitations de quotas, qui peuvent impacter leur productivité et leur planification budgétaire.

OutilsActu
1 source
[AINews] Codex monte en puissance, Claude encadre l'utilisation par API
2Latent Space 

[AINews] Codex monte en puissance, Claude encadre l'utilisation par API

Depuis le lancement de GPT-5.5 il y a trois semaines, un rééquilibrage s'opère discrètement dans l'écosystème du développement assisté par IA. OpenAI gagne du terrain auprès des ingénieurs IA avec Codex, porté par des limites d'utilisation jugées plus généreuses, tandis qu'Anthropic a annoncé une refonte de sa politique tarifaire pour Claude. Désormais, chaque abonnement Claude inclut un crédit mensuel en tokens API égal au montant payé : un abonné à 200 dollars par mois reçoit à la fois un accès illimité aux interfaces propriétaires d'Anthropic (Claude.ai, Claude Code) et 200 dollars de crédits API pour les usages tiers. Le changement coïncide, non sans ironie, avec le lancement par OpenAI d'une promotion ciblant les entreprises souhaitant migrer depuis Anthropic. Cette décision est perçue par une partie de la communauté comme un "rug pull" : les utilisateurs de harnesses alternatifs comme OpenClaw, claude-p ou d'autres outils non officiels bénéficiaient jusqu'ici d'une remise estimée à 70-90 % par rapport aux tarifs API officiels, une subvention tacite qui disparaît aujourd'hui. Concrètement, Anthropic met désormais ses conditions tarifaires les plus avantageuses derrière ses propres outils, en mesurant et facturant tout ce qui passe par des canaux tiers. L'annonce clarifie certes une zone grise qui laissait certains harnesses dans un flou inconfortable, mais elle marque une rupture nette avec la générosité initiale qui avait contribué à l'adoption massive de Claude chez les développeurs. Ce tournant s'inscrit dans une dynamique plus large de maturation du marché. Anthropic, dont la valorisation continue de grimper à l'approche d'une probable introduction en bourse en octobre 2026, consolide son écosystème propriétaire après avoir établi Claude Code comme harness de référence. En face, Codex joue la carte du challenger en adoptant une politique d'accès plus ouverte. Sur le plan de l'infrastructure agent, la semaine a aussi été marquée par plusieurs lancements significatifs : LangChain a présenté à sa conférence Interrupt un ensemble d'outils comprenant LangSmith Engine, SmithDB (une base de données d'observabilité offrant des accès 12 à 15 fois plus rapides sur certaines charges), et des agents managés longue durée ; Cline a open-sourcé un SDK revu avec support d'équipes d'agents et de jobs planifiés ; Notion a lancé une API d'agents externes permettant à Claude, Codex, Cursor ou Devin d'opérer directement dans Notion ; et Cursor a étendu ses agents cloud avec des environnements de développement isolés et versionnés. L'industrie semble entrer dans une phase où la bataille ne se joue plus seulement sur la qualité des modèles, mais sur qui contrôle les couches d'orchestration et d'infrastructure autour d'eux.

UELes développeurs européens utilisant des harnesses tiers pour accéder à Claude via API devront revoir leur infrastructure ou leur budget, la subvention tacite estimée à 70-90 % disparaissant avec la nouvelle politique tarifaire d'Anthropic.

💬 La remise de 70-90 % sur l'API via harnesses tiers, ça ne tenait sur rien comme modèle. Anthropic a attendu que Claude Code soit bien ancré pour refermer le robinet, le timing n'est pas un hasard. Les développeurs qui avaient bâti leur infra là-dessus vont morfler, et certains vont regarder Codex d'un autre oeil.

OutilsOpinion
1 source
3VentureBeat AI 

OpenAI lance ChatGPT Pro à 100 dollars avec des limites d'utilisation de Codex 5 fois supérieures à celles de Plus

OpenAI a lancé un nouveau palier d'abonnement à 100 dollars par mois pour ChatGPT, baptisé ChatGPT Pro, ciblant explicitement les développeurs et les "vibe coders", ces utilisateurs qui construisent des logiciels en langage naturel avec l'aide de l'IA. Cette offre se positionne entre le plan Plus à 20 dollars et le plan Pro existant à 200 dollars, et son argument principal est simple : elle offre cinq fois plus d'utilisation de Codex, l'environnement de développement assisté par IA d'OpenAI, par rapport au plan Plus. Sam Altman, PDG et co-fondateur d'OpenAI, a annoncé le lancement sur X en évoquant une "très forte demande". Concrètement, le plan à 100 dollars permet par exemple d'envoyer entre 300 et 1 500 messages locaux avec le modèle GPT-5.3-Codex toutes les cinq heures, contre 45 à 225 pour le plan Plus, et d'effectuer entre 50 et 400 tâches cloud sur la même fenêtre, contre 10 à 60. Les revues de code passent également de 10 à 25 pull requests par semaine à 100 à 250. Le plan à 200 dollars offre quant à lui le double du plan à 100 dollars, soit dix fois les limites du Plus. Ce lancement signale une montée en puissance d'OpenAI sur le segment du développement logiciel assisté, un marché devenu stratégique. En introduisant un palier intermédiaire, l'entreprise cherche à capter les développeurs qui trouvaient le plan Plus trop limité sans vouloir payer 200 dollars. La décision est toutefois ambiguë : OpenAI a simultanément annoncé un "rééquilibrage" de l'utilisation de Codex pour les abonnés Plus, réduisant les sessions longues au profit de sessions plus courtes et distribuées dans la semaine, ce qui revient de facto à restreindre les usages intensifs des utilisateurs à 20 dollars, les incitant à passer à la formule supérieure. Le contexte concurrentiel explique en grande partie cette accélération. Anthropic, principal rival d'OpenAI, a récemment révélé un chiffre d'affaires annualisé dépassant 30 milliards de dollars, devançant les 24 à 25 milliards estimés d'OpenAI. Cette croissance est portée en grande partie par l'adoption massive de Claude Code et Claude Cowork, des outils de développement assisté par IA qui gagnent rapidement du terrain auprès des équipes techniques. OpenAI, qui a largement contribué à populariser l'IA générative, se retrouve ainsi à devoir défendre son leadership sur un segment qu'il a pourtant contribué à inventer. La guerre des abonnements pour coder avec l'IA ne fait que commencer, avec des acteurs comme Google, GitHub Copilot et Cursor également dans la course.

UELes développeurs européens disposent d'un nouveau palier intermédiaire à 100$/mois pour accéder à Codex avec des limites 5x supérieures au plan Plus, une option concrètement utilisable par les équipes techniques en France et en Europe.

OutilsOutil
1 source
[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création
4Latent Space 

[AINews] Des agents pour tout le reste : Codex pour le travail intellectuel, Claude pour la création

OpenAI a déployé cette semaine une mise à jour majeure de Codex, repositionnant l'outil bien au-delà du code pour en faire un agent universel de travail sur ordinateur. Intitulée « Codex for Work », cette évolution introduit un navigateur réactif 42 % plus rapide, de nouvelles commandes comme /chronicle et /goal, une interface de planification inédite et un éditeur de fichiers intégré pour les formats Microsoft Office, avec des connexions directes aux suites Microsoft, Google et Salesforce. Sam Altman a personnellement amplifié le lancement sur X en invitant les utilisateurs à « essayer Codex pour les tâches non-coding ». Dans le même temps, Anthropic a lancé Claude Security, un outil de revue de code axé sur la détection de vulnérabilités, et a annoncé le support de logiciels créatifs majeurs : Blender, Autodesk, Adobe Creative Cloud, Ableton, Splice, Canva et Affinity. Sur le front des évaluations, le UK AI Security Institute a signalé que GPT-5.5 est devenu le deuxième modèle à compléter de bout en bout une simulation d'attaque informatique multi-étapes, avec un taux de réussite moyen de 71,4 % contre 68,6 % pour Claude Mythos Preview. Ces annonces marquent un tournant stratégique dans la compétition entre les deux leaders de l'IA générative. En transformant Codex en agent généraliste, OpenAI cherche à capturer un marché bien plus large que le développement logiciel : les travailleurs du savoir, analystes, juristes, marketeurs et consultants, qui passent leurs journées entre documents, présentations et feuilles de calcul. L'interface dynamique adoptée par Codex, qui laisse l'agent choisir lui-même l'expérience utilisateur selon la nature de la tâche plutôt qu'un simple bouton de bascule, illustre une ambition de « SuperApp » pleinement assumée. Du côté d'Anthropic, l'intégration aux outils créatifs professionnels ouvre Claude à un public radicalement différent : graphistes, musiciens, vidéastes. Quant aux résultats cyber de GPT-5.5, ils remettent en cause l'avantage qu'Anthropic était supposé détenir dans l'automatisation offensive, les performances du modèle continuant de progresser au-delà de 100 millions de tokens d'inférence sans signe de saturation visible. Ces évolutions s'inscrivent dans une dynamique que les observateurs du secteur nomment « la sortie de confinement des agents de coding » : les outils initialement conçus pour les développeurs commencent à coloniser l'ensemble du travail sur ordinateur. OpenAI productise désormais activement l'interface « agent computer-use », tandis qu'Anthropic mise sur la sécurité et la créativité pour différencier Claude. GPT-5.5 Pro envoie également un signal économique notable : selon Artificial Analysis, il améliore légèrement les scores sur le benchmark CritPt par rapport à GPT-5.4 Pro tout en réduisant les coûts d'environ 60 %, suggérant qu'OpenAI parie autant sur l'efficacité que sur la puissance brute. Les prochaines semaines diront si ces repositionnements trouvent un écho réel auprès des utilisateurs non-techniques que les deux entreprises cherchent désormais à conquérir.

UELes nouveaux outils d'OpenAI et Anthropic (Codex for Work, Claude Security, intégrations créatives) sont accessibles aux professionnels européens, mais les résultats du UK AI Security Institute sur les capacités offensives de GPT-5.5 interpellent les régulateurs de l'UE sur les implications de l'AI Act pour les modèles à double usage.

💬 OpenAI fait sortir Codex du code pour aller chercher les consultants et les juristes, et l'interface qui s'adapte toute seule à la tâche sans bascule manuelle, c'est là que le truc est sérieux. Claude dans Blender et Ableton, je l'attendais pas, mais ça a du sens comme différenciation. Et GPT-5.5 qui boucle des simulations d'attaque cyber à 71%, ça, ça va faire causer bien au-delà du secteur IA.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour