Aller au contenu principal
Anthropic a testé le retrait de Claude Code du plan Pro
BusinessArs Technica AI2h

Anthropic a testé le retrait de Claude Code du plan Pro

1 source couvre ce sujet·Source originale ↗·

Anthropic a brièvement semé la confusion chez ses utilisateurs développeurs en faisant apparaître sur sa page de tarification que Claude Code, son outil de développement agentique, ne serait plus accessible aux abonnés du plan Pro à 20 dollars par mois. Les nouveaux inscrits au plan Pro se sont retrouvés dans l'impossibilité d'accéder à Claude Code, tandis que les abonnés existants n'ont constaté aucune interruption de service. L'information s'est rapidement propagée sur Reddit et X, où de nombreux développeurs ont signalé la modification visible sur la page officielle d'Anthropic : Claude Code apparaissait comme non pris en charge en Pro, et uniquement disponible à partir du plan Max, facturé 100 dollars par mois minimum. Amol Avasare, responsable de la croissance chez Anthropic, a finalement pris la parole sur les réseaux sociaux pour préciser qu'il s'agissait d'un "test limité à environ 2 % des nouveaux abonnés prosumer".

Ce type de test de tarification, même discret, a des implications concrètes pour les milliers de développeurs indépendants et de petites équipes qui s'appuient sur Claude Code à travers l'abonnement Pro comme alternative économique aux offres professionnelles plus coûteuses. Déplacer Claude Code vers le palier Max multiplierait par cinq le coût mensuel, ce qui représente un seuil significatif pour les utilisateurs individuels. La réaction rapide et visible de la communauté illustre à quel point les outils d'assistance au développement par IA sont devenus centraux dans les flux de travail quotidiens, et à quel point leur accessibilité tarifaire est scrutée de près.

Claude Code s'est imposé en quelques mois comme l'un des environnements de développement assisté par IA les plus appréciés du marché, en concurrence directe avec GitHub Copilot, Cursor et d'autres outils similaires. Anthropic navigue actuellement entre deux impératifs : rendre ses modèles accessibles pour stimuler l'adoption, tout en trouvant un modèle économique viable pour des fonctionnalités à forte consommation de compute comme les agents autonomes. Ce test, même avorté ou limité, révèle que l'entreprise explore activement comment repositionner ses outils les plus puissants dans des offres mieux monétisées, une tendance que l'on observe également chez OpenAI et Google avec leurs propres produits destinés aux développeurs.

Impact France/UE

Les développeurs indépendants français et européens abonnés au plan Pro pourraient voir leur coût mensuel multiplié par cinq si Anthropic décidait de réserver Claude Code au plan Max.

À lire aussi

Shopify, l'IA en 2026 : explosion des usages, budget Opus-4.6 illimité, avec le CTO Mikhail Parakhin
1Latent Space 

Shopify, l'IA en 2026 : explosion des usages, budget Opus-4.6 illimité, avec le CTO Mikhail Parakhin

Shopify, la plateforme de commerce en ligne valorisée 200 milliards de dollars, est entrée en 2026 dans ce que son directeur technique Mikhail Parakhin appelle une "phase de transition IA". L'entreprise de vingt ans offre désormais à ses ingénieurs un budget illimité en tokens Claude Opus 4.6 et a déployé trois initiatives internes majeures : Tangle, Tangent et SimGym. Tangle rend les workflows de machine learning reproductibles et collaboratifs grâce à un cache adressé par contenu, se distinguant nettement d'outils comme Airflow. Tangent est un système d'auto-recherche en boucle fermée qui optimise automatiquement des composants comme la recherche produit, la compression de prompts ou le stockage, désormais accessible aux chefs de produit sans expertise ML. SimGym permet de simuler le comportement d'acheteurs à partir des données historiques réelles de Shopify, une infrastructure coûteuse mêlant modèles multimodaux, browser farms et distillation, qui permet d'indiquer précisément à un marchand quoi modifier sur sa boutique pour améliorer ses conversions. Parakhin révèle également que Shopify utilise Liquid AI, qu'il décrit comme la première architecture non-transformer réellement compétitive qu'il ait testée en pratique, notamment pour la compréhension de requêtes à très faible latence. Ce que Shopify documente publiquement est instructif pour toute l'industrie : le vrai goulot d'étranglement dans le développement assisté par IA n'est plus la génération de code, mais la revue, l'intégration continue et la stabilité du déploiement. Parakhin confirme un paradoxe contre-intuitif : les agents IA peuvent produire du code statistiquement plus propre que les humains tout en augmentant le nombre de bugs en production, simplement parce que le volume de code généré explose sans que les processus de validation suivent. Shopify a donc construit son propre workflow de revue de pull requests, jugeant insuffisants les outils standards du marché. Parakhin nuance également la rhétorique de Jensen Huang sur les budgets de tokens : si la direction est juste, le nombre brut de tokens reste une mauvaise métrique pour évaluer la productivité d'une équipe d'ingénierie. Mikhail Parakhin arrive chez Shopify après avoir dirigé des divisions majeures chez Microsoft, notamment Windows, Edge, Bing et la publicité, et avoir présidé à l'ère controversée du chatbot "Sydney" de Bing en 2023. Ce passé lui donne un regard calibré sur la vague actuelle : il situe un point d'inflexion décisif en décembre 2025, moment où la qualité des modèles a franchi un seuil rendant la généralisation à la fois possible et nécessaire pour rester compétitif. Pour Shopify, tenir la frontière technologique n'est plus un avantage optionnel. La combinaison Tangle-Tangent-SimGym est présentée comme un avantage structurel défensif : ces systèmes permettent d'expérimenter de façon reproductible, d'optimiser automatiquement et de simuler le comportement commercial à grande échelle, en s'appuyant sur vingt ans de données transactionnelles que peu de concurrents peuvent répliquer.

BusinessOpinion
1 source
Chez UBER, l’IA fait exploser les budgets / Chez META, les salariés entraînent les machines / OpenAI muscle son jeu en Europe avec un Français à sa tête
2FrenchWeb 

Chez UBER, l’IA fait exploser les budgets / Chez META, les salariés entraînent les machines / OpenAI muscle son jeu en Europe avec un Français à sa tête

Chez Uber, le directeur technique Praveen Neppalli Naga a révélé, selon The Information, que l'usage intensif des outils de génération de code par automatique a déjà épuisé la totalité du budget IA alloué pour 2026, pourtant censé couvrir l'ensemble de l'exercice. Des solutions comme Claude Code d'Anthropic sont au coeur de cette dérive budgétaire. De son côté, Meta a mis en place un programme interne où ses propres salariés participent activement à l'entraînement de ses modèles d'intelligence artificielle, transformant les employés en contributeurs directs du pipeline de données. Enfin, OpenAI renforce sa présence en Europe en nommant un Français à la tête de ses opérations sur le continent. Ces trois signaux illustrent une même réalité : les entreprises tech sous-estiment systématiquement les coûts et la profondeur organisationnelle de l'intégration de l'IA. Chez Uber, la dérive budgétaire en quelques mois seulement soulève des questions sur la gouvernance des dépenses IA à grande échelle. La démarche de Meta pose, elle, des questions éthiques sur la frontière entre rôle professionnel et contribution à des systèmes d'automatisation. La nomination chez OpenAI signale quant à elle que le marché européen est désormais trop stratégique pour être géré depuis les États-Unis. L'explosion des usages de l'IA générative en entreprise depuis 2023 a pris de court les directions financières, qui découvrent que les tokens consommés à l'échelle d'ingénieries entières représentent des coûts variables difficiles à anticiper. Dans ce contexte, Meta mise sur l'humain en interne pour améliorer la qualité de ses modèles face à OpenAI et Google, tandis qu'OpenAI cherche à ancrer sa légitimité réglementaire et commerciale en Europe, un terrain où les résistances institutionnelles restent fortes.

UELa nomination d'un Français à la tête des opérations européennes d'OpenAI signale une stratégie d'ancrage réglementaire et commercial en Europe, tandis que les dérives budgétaires IA documentées chez Uber concernent directement les DSI et DAF européens confrontés aux mêmes enjeux de gouvernance des coûts IA.

BusinessActu
1 source
CoreWeave a convaincu les marchés obligataires
3The Information AI 

CoreWeave a convaincu les marchés obligataires

En l'espace de quelques semaines d'avril 2026, CoreWeave a levé près de 16 milliards de dollars auprès d'une diversité d'investisseurs rarement vue pour une entreprise technologique. Le 31 mars, la société a bouclé une facilité de crédit de 8,5 milliards de dollars adossée à ses propres processeurs graphiques Nvidia. Le 9 avril, elle a élargi un contrat existant avec Meta Platforms à 21 milliards de dollars pour la fourniture de capacités de calcul. Elle a ensuite émis 1,25 milliard de dollars d'obligations à haut rendement et 3 milliards en titres convertibles, des opérations rapidement augmentées d'un milliard supplémentaire. Dans la foulée, Anthropic a annoncé son arrivée comme nouveau client. La semaine suivante, CoreWeave a placé encore un milliard d'obligations sans même organiser de tournée de présentation auprès des investisseurs. Au milieu de tout cela, la firme de trading Jane Street a investi 1 milliard de dollars dans CoreWeave et s'est engagée à dépenser 6 milliards en services cloud IA sur la plateforme. Le titre de l'entreprise a progressé de 55 % sur le mois. Ce niveau de financement reflète un changement de posture profond chez les investisseurs obligataires, traditionnellement prudents vis-à-vis des entreprises technologiques. Ces acteurs ont longtemps boudé le secteur, jugé trop risqué, et avaient manifesté leur inquiétude l'an dernier face à la vague d'endettement d'Oracle et d'autres constructeurs d'infrastructures IA. Désormais, la demande massive et les engagements fermes de géants comme Meta suffisent à rassurer des fonds tels que Janus Henderson Investors, dont le responsable de la recherche crédit Mike Talaga résume la position : "Nous acceptons le risque de construction parce que la demande est là." Pour les investisseurs, CoreWeave représente un levier direct sur le succès de l'IA, avec une capacité démontrée à livrer de la puissance de calcul et à convaincre ses clients d'en commander davantage. L'entrée de Jane Street, acteur financier et non développeur d'IA, signale en outre que l'appétit pour ces services dépasse désormais le cercle des pure players technologiques. La trajectoire de CoreWeave s'inscrit dans une course effrénée à l'infrastructure déclenchée par les progrès rapides de l'IA générative. La pénurie de capacités de calcul a transformé les fournisseurs de cloud spécialisés en acteurs incontournables du secteur. CoreWeave cherche à consolider son avance en enrichissant son offre de logiciels et de services pour fidéliser ses clients. Nick Robbins, vice-président en charge du développement corporate, reconnaît cependant que l'ère actuelle est "celle de la croyance plutôt que du scepticisme." Cette dynamique pourrait s'emballer à court terme, mais elle comporte des risques systémiques : contrairement aux marchés actions, une turbulence dans l'obligataire peut freiner le crédit à l'échelle de l'économie entière, et de lourdes pertes futures dans ce compartiment pourraient se propager bien au-delà du seul secteur IA.

BusinessOpinion
1 source
OpenAI et Anthropic se détournent-ils des modèles de raisonnement ?
4The Information AI 

OpenAI et Anthropic se détournent-ils des modèles de raisonnement ?

SpaceX, la société de Elon Musk, a annoncé mardi la signature d'un accord d'acquisition de Cursor, l'application d'aide au code alimentée par l'IA, pour un montant de 60 milliards de dollars. La transaction, dont la date de finalisation n'a pas été précisée, prévoit une clause de rupture de 10 milliards de dollars si l'accord venait à capoter. Il s'agit de l'une des plus grandes acquisitions jamais réalisées sur une startup financée par capital-risque. Cursor génère déjà des milliards de dollars de revenus annuels et s'est imposé comme l'un des outils de développement assisté par IA les plus utilisés dans l'industrie. Cette acquisition donnerait à xAI, la branche intelligence artificielle de Musk, une présence massive sur le marché des outils de développement, un segment où son modèle Grok peine à s'imposer. L'enjeu est considérable : le marché du coding assisté par IA est en pleine explosion, et les entreprises qui parviennent à fidéliser les développeurs sur leurs outils bénéficient d'un avantage concurrentiel durable. L'opération interviendrait dans un contexte où SpaceX prépare une introduction en bourse pouvant valoriser la société jusqu'à 1 500 milliards de dollars cet été, ce qui relativise le montant de la transaction. La bataille pour le coding IA s'annonce néanmoins difficile pour xAI. Les principaux concurrents, Claude Code d'Anthropic et Codex d'OpenAI, ont déjà une longueur d'avance en matière de modèles spécialisés et d'intégration dans les workflows des développeurs. En parallèle, la question plus large de l'évolution des architectures de modèles se pose : le raisonnement étendu, dit test-time compute, qui consiste à allouer davantage de puissance de calcul au moment de l'inférence plutôt qu'à l'entraînement, est présenté comme l'une des avancées majeures de ces deux dernières années. OpenAI et Anthropic semblent pourtant revoir leurs priorités dans ce domaine, ce qui pourrait redistribuer les cartes dans la course aux modèles de coding.

BusinessOpinion
1 source