Aller au contenu principal
InfrastructureArs Technica AI35min

Anthropic relève les plafonds d'utilisation de Claude Code grâce à un accord avec SpaceX

Résumé IASource uniqueImpact UE
Source originale ↗·

Lors de sa conférence développeurs "Code with Claude" organisée mercredi à San Francisco, Anthropic a annoncé un accord avec SpaceX portant sur l'utilisation de la totalité de la capacité de calcul du centre de données de l'entreprise aérospatiale à Memphis, dans le Tennessee. Le PDG Dario Amodei a présenté cet accord sur scène, précisant qu'il visait directement à augmenter les limites d'utilisation pour les abonnés aux plans Pro et Max. Dans la foulée de l'annonce, Anthropic a doublé les fenêtres de cinq heures de Claude Code pour ces abonnés, supprimé la réduction des limites en heures de pointe sur Claude Code, et relevé les quotas d'API pour son modèle Opus.

Ces changements représentent une réponse directe aux frustrations des développeurs qui se heurtaient régulièrement aux plafonds d'utilisation lors de sessions de travail intensives. En supprimant la pénalité des heures de pointe et en doublant les fenêtres actives, Anthropic rend Claude Code nettement plus utilisable pour les professionnels qui en font un outil central de leur flux de travail quotidien.

Cet accord avec SpaceX illustre la course effrénée aux infrastructures qui structure aujourd'hui la compétition entre les grands laboratoires d'IA. Alors qu'OpenAI, Google et Anthropic se disputent parts de marché chez les développeurs, l'accès garanti à de la puissance de calcul massive devient un avantage concurrentiel aussi important que les capacités des modèles eux-mêmes. La décision d'Anthropic de s'appuyer sur les centres de données de SpaceX, plutôt que d'investir uniquement dans les cloud hyperscalers traditionnels, signal une diversification stratégique de ses dépendances en infrastructure.

Impact France/UE

Les développeurs européens abonnés aux plans Pro et Max de Claude Code bénéficient directement du doublement des fenêtres d'utilisation et de la suppression des pénalités aux heures de pointe.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1The Decoder 

Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude

Anthropic va s'emparer de la totalité de la capacité de calcul du centre de données Colossus-1 de SpaceX, soit plus de 300 mégawatts d'électricité et plus de 220 000 GPU NVIDIA. Cette infrastructure colossale, attendue en ligne d'ici un mois, sera entièrement dédiée à alimenter les modèles Claude de la startup californienne. En parallèle, Anthropic annonce le doublement des limites de débit pour Claude Code et une augmentation significative des quotas d'API pour ses modèles Opus. Cette prise de contrôle représente un bond considérable en termes de puissance de calcul disponible pour Anthropic, directement répercuté sur les développeurs et entreprises qui utilisent ses API. Doubler les limites de Claude Code signifie concrètement que les équipes de développement pourront automatiser davantage de tâches sans se heurter aux restrictions actuelles, tandis que la hausse des quotas Opus ouvre la voie à des déploiements en production plus intensifs. C'est un signal fort envoyé aux clients enterprise qui hésitaient à migrer vers Claude en raison des contraintes de capacité. Colossus-1 a été initialement construit par xAI, la société d'intelligence artificielle d'Elon Musk, pour entraîner ses propres modèles Grok. Le fait qu'Anthropic en récupère la pleine capacité illustre la guerre d'infrastructure qui se joue en coulisse entre les grands laboratoires d'IA : disposer de suffisamment de GPU est désormais aussi stratégique que la qualité des modèles eux-mêmes. Avec ce partenariat, Anthropic consolide sa position face à OpenAI et Google DeepMind dans la course aux ressources de calcul à grande échelle.

UELes développeurs et entreprises européennes utilisant l'API Claude bénéficieront directement du doublement des quotas Claude Code et de la hausse des limites Opus, facilitant les déploiements en production à grande échelle.

💬 220 000 GPU construits par xAI pour Grok, qui finissent chez Anthropic. C'est un peu la blague de l'année, mais ça dit surtout que l'infrastructure est devenue aussi stratégique que les modèles eux-mêmes. Ce qui m'intéresse directement, c'est le doublement des limites Claude Code: les pipelines qui plafonnaient vont enfin pouvoir tourner sans jongler avec les quotas.

InfrastructureOpinion
1 source
Anthropic signe un accord de 3,5 gigawatts avec Broadcom et Google pour des TPU
2The Information AI 

Anthropic signe un accord de 3,5 gigawatts avec Broadcom et Google pour des TPU

Broadcom a annoncé lundi, dans un dépôt réglementaire auprès de la SEC, qu'il fournirait à Anthropic l'accès à environ 3,5 gigawatts de puissance de calcul via les TPU (Tensor Processing Units) de Google, à partir de 2027. Cet accord étend un partenariat existant qui portait initialement sur environ 1 gigawatt de capacité. Ce contrat représente une infrastructure de calcul colossale pour Anthropic, qui développe les modèles Claude. L'accès à une telle puissance de traitement conditionne directement la capacité d'une entreprise d'IA à entraîner des modèles toujours plus grands et à servir des millions d'utilisateurs simultanément. Pour Broadcom, ce partenariat consolide son rôle de fournisseur stratégique dans la chaîne d'approvisionnement des géants de l'IA. Cet accord s'inscrit dans une course effrénée aux ressources de calcul qui oppose les grands laboratoires d'IA. Anthropic, soutenu financièrement par Google et Amazon, cherche à sécuriser des capacités suffisantes pour rivaliser avec OpenAI et les modèles de Google DeepMind. Le recours aux TPU de Google plutôt qu'aux GPU Nvidia illustre la diversification croissante des stratégies d'approvisionnement en silicium dans le secteur.

InfrastructureActu
1 source
Actualité : Claude est encore en panne, un mois noir pour Anthropic
3Les Numériques IA 

Actualité : Claude est encore en panne, un mois noir pour Anthropic

Le service Claude d'Anthropic traverse une période de turbulences inédite : depuis plusieurs semaines, l'assistant IA enchaîne les pannes à un rythme préoccupant. Le 27 mars 2026, une nouvelle interruption de service touche le modèle Opus 4.6, s'ajoutant à une série d'incidents techniques et d'attaques par déni de service distribué (DDoS) qui ont perturbé l'accès à la plateforme pour des milliers d'utilisateurs et d'entreprises dans le monde. Ces défaillances répétées posent un problème concret pour les équipes et développeurs qui ont intégré Claude dans leurs workflows professionnels. Contrairement à une panne isolée, une succession d'interruptions sur un mois fragilise la confiance des entreprises clientes, notamment celles ayant souscrit à des abonnements API ou à des offres Teams et Enterprise. Pour des usages critiques — rédaction automatisée, support client, analyse de données — chaque indisponibilité se traduit directement en perte de productivité et en remise en question des choix d'infrastructure IA. Anthropic, valorisée à plusieurs dizaines de milliards de dollars après ses dernières levées de fonds, est en pleine montée en charge pour faire face à une demande explosive depuis le lancement de ses modèles Claude 4. Cette croissance rapide met à l'épreuve la robustesse de ses infrastructures, dans un secteur où OpenAI et Google DeepMind investissent massivement dans la résilience de leurs services. La récurrence des incidents soulève des questions sur la capacité d'Anthropic à industrialiser son infrastructure au même rythme que sa croissance commerciale — un défi structurel pour l'ensemble des acteurs de l'IA générative.

UELes entreprises et développeurs européens ayant intégré l'API Claude dans des workflows critiques subissent directement ces interruptions répétées, les poussant à reconsidérer leur dépendance à cette infrastructure.

InfrastructureOpinion
1 source
Anthropic en négociation pour acheter des puces IA à une startup britannique
4The Information AI 

Anthropic en négociation pour acheter des puces IA à une startup britannique

Anthropic est en discussions avec la startup londonienne Fractile pour acquérir des puces d'inférence destinées à faire tourner ses modèles d'IA. Selon deux sources proches des dirigeants de Fractile, les pourparlers portent sur un approvisionnement qui deviendrait effectif l'année prochaine, une fois les puces disponibles. Anthropic, qui commercialise les modèles Claude, s'appuie aujourd'hui sur trois fournisseurs principaux : Google, Amazon et Nvidia. Ce potentiel contrat avec Fractile constituerait donc une quatrième source d'approvisionnement en matériel. L'enjeu est stratégique : les ventes d'Anthropic connaissent une croissance explosive qui met sous pression les serveurs existants, et les dépenses de la société en infrastructure sont projetées à plusieurs dizaines de milliards de dollars par an. En diversifiant ses fournisseurs, Anthropic se dote d'un levier de négociation face à des géants comme Nvidia, dont les puces restent en forte demande. Les puces d'inférence de Fractile sont conçues pour faire tourner des modèles d'IA de manière plus efficiente, ce qui peut réduire les coûts opérationnels à grande échelle. Cette démarche s'inscrit dans une tendance de fond : les grands laboratoires d'IA cherchent à réduire leur dépendance à Nvidia, dont les GPU H100 et Blackwell sont devenus un goulot d'étranglement mondial. Des acteurs comme Google avec ses TPU, ou Amazon avec ses puces Trainium, développent déjà leurs alternatives en interne. Fractile, startup britannique encore confidentielle, tente de s'imposer sur ce marché émergent des puces d'inférence spécialisées, où la compétition s'intensifie rapidement.

UEL'émergence de Fractile, startup londonienne, comme fournisseur potentiel d'Anthropic illustre la capacité des entreprises européennes à s'imposer dans le marché stratégique des puces d'inférence IA, même si l'impact direct sur la France et l'UE reste indirect à ce stade.

💬 Anthropic n'achète pas des puces, il achète du pouvoir de négociation face à Nvidia. Avoir un quatrième fournisseur dans la poche, c'est surtout une façon de ne plus être otage des GPU H100 qui manquent à tout le monde. Reste à voir si Fractile peut vraiment tenir la cadence quand Anthropic va en avoir besoin.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour