Aller au contenu principal
InfrastructureThe Information AI1h

Pourquoi Musk cède les serveurs de xAI à Anthropic ; Reka rachète une startup de génération vidéo

Résumé IASource uniqueImpact UE
Source originale ↗·

xAI, la société d'intelligence artificielle d'Elon Musk, a annoncé mercredi qu'elle cède à Anthropic une part substantielle de son infrastructure de calcul. Selon Anthropic, le transfert porte sur 300 mégawatts de capacité de serveurs, ce qui représente, d'après xAI, plus de 220 000 puces Nvidia. Il s'agit concrètement du complexe Memphis Colossus, la méga-installation que Musk avait inaugurée en grande pompe il y a plus d'un an. Pour donner une échelle, cette capacité équivaut à environ un sixième de l'ensemble des serveurs qu'OpenAI possédait fin 2025 pour ses produits et ses clusters d'entraînement.

Ce transfert révèle un déséquilibre frappant au sein du secteur : OpenAI et Anthropic saturent leurs serveurs en permanence, tandis que xAI se retrouve avec une surcapacité coûteuse et sous-exploitée. Pour SpaceX, actionnaire de xAI et candidate à une introduction en bourse imminente, maintenir des serveurs qui tournent à vide représente un gouffre financier de plusieurs milliards de dollars, susceptible d'attirer une attention critique des investisseurs. Céder cette capacité à Anthropic permet à xAI de monétiser des actifs dormants, tout en offrant à Anthropic une marge de calcul supplémentaire pour absorber une demande en constante hausse.

Ce n'est pas la première fois que xAI cherche à externaliser ses capacités excédentaires : la société a récemment conclu un accord similaire avec Cursor, l'assistant de codage IA que SpaceX est en cours d'acquisition. Le complexe Memphis Colossus avait suscité une certaine inquiétude chez les concurrents lors de son lancement, Musk se vantant de la vitesse record à laquelle ses équipes avaient monté l'infrastructure. Mais construire massivement sans que la demande suive expose les entreprises à des charges fixes difficiles à absorber. Ce mouvement de consolidation entre acteurs rivaux de l'IA illustre une nouvelle logique de marché, dans laquelle la puissance de calcul se gère comme une ressource à allouer stratégiquement, parfois au-delà des frontières concurrentielles habituelles.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic en négociation pour acheter des puces IA à une startup britannique
1The Information AI 

Anthropic en négociation pour acheter des puces IA à une startup britannique

Anthropic est en discussions avec la startup londonienne Fractile pour acquérir des puces d'inférence destinées à faire tourner ses modèles d'IA. Selon deux sources proches des dirigeants de Fractile, les pourparlers portent sur un approvisionnement qui deviendrait effectif l'année prochaine, une fois les puces disponibles. Anthropic, qui commercialise les modèles Claude, s'appuie aujourd'hui sur trois fournisseurs principaux : Google, Amazon et Nvidia. Ce potentiel contrat avec Fractile constituerait donc une quatrième source d'approvisionnement en matériel. L'enjeu est stratégique : les ventes d'Anthropic connaissent une croissance explosive qui met sous pression les serveurs existants, et les dépenses de la société en infrastructure sont projetées à plusieurs dizaines de milliards de dollars par an. En diversifiant ses fournisseurs, Anthropic se dote d'un levier de négociation face à des géants comme Nvidia, dont les puces restent en forte demande. Les puces d'inférence de Fractile sont conçues pour faire tourner des modèles d'IA de manière plus efficiente, ce qui peut réduire les coûts opérationnels à grande échelle. Cette démarche s'inscrit dans une tendance de fond : les grands laboratoires d'IA cherchent à réduire leur dépendance à Nvidia, dont les GPU H100 et Blackwell sont devenus un goulot d'étranglement mondial. Des acteurs comme Google avec ses TPU, ou Amazon avec ses puces Trainium, développent déjà leurs alternatives en interne. Fractile, startup britannique encore confidentielle, tente de s'imposer sur ce marché émergent des puces d'inférence spécialisées, où la compétition s'intensifie rapidement.

UEL'émergence de Fractile, startup londonienne, comme fournisseur potentiel d'Anthropic illustre la capacité des entreprises européennes à s'imposer dans le marché stratégique des puces d'inférence IA, même si l'impact direct sur la France et l'UE reste indirect à ce stade.

💬 Anthropic n'achète pas des puces, il achète du pouvoir de négociation face à Nvidia. Avoir un quatrième fournisseur dans la poche, c'est surtout une façon de ne plus être otage des GPU H100 qui manquent à tout le monde. Reste à voir si Fractile peut vraiment tenir la cadence quand Anthropic va en avoir besoin.

InfrastructureActu
1 source
Anthropic relève les plafonds d'utilisation de Claude Code grâce à un accord avec SpaceX
2Ars Technica AI 

Anthropic relève les plafonds d'utilisation de Claude Code grâce à un accord avec SpaceX

Lors de sa conférence développeurs "Code with Claude" organisée mercredi à San Francisco, Anthropic a annoncé un accord avec SpaceX portant sur l'utilisation de la totalité de la capacité de calcul du centre de données de l'entreprise aérospatiale à Memphis, dans le Tennessee. Le PDG Dario Amodei a présenté cet accord sur scène, précisant qu'il visait directement à augmenter les limites d'utilisation pour les abonnés aux plans Pro et Max. Dans la foulée de l'annonce, Anthropic a doublé les fenêtres de cinq heures de Claude Code pour ces abonnés, supprimé la réduction des limites en heures de pointe sur Claude Code, et relevé les quotas d'API pour son modèle Opus. Ces changements représentent une réponse directe aux frustrations des développeurs qui se heurtaient régulièrement aux plafonds d'utilisation lors de sessions de travail intensives. En supprimant la pénalité des heures de pointe et en doublant les fenêtres actives, Anthropic rend Claude Code nettement plus utilisable pour les professionnels qui en font un outil central de leur flux de travail quotidien. Cet accord avec SpaceX illustre la course effrénée aux infrastructures qui structure aujourd'hui la compétition entre les grands laboratoires d'IA. Alors qu'OpenAI, Google et Anthropic se disputent parts de marché chez les développeurs, l'accès garanti à de la puissance de calcul massive devient un avantage concurrentiel aussi important que les capacités des modèles eux-mêmes. La décision d'Anthropic de s'appuyer sur les centres de données de SpaceX, plutôt que d'investir uniquement dans les cloud hyperscalers traditionnels, signal une diversification stratégique de ses dépendances en infrastructure.

UELes développeurs européens abonnés aux plans Pro et Max de Claude Code bénéficient directement du doublement des fenêtres d'utilisation et de la suppression des pénalités aux heures de pointe.

💬 Les plafonds de Claude Code m'ont cassé le rythme plus d'une fois, donc oui, doubler les fenêtres et enlever les pénalités en heures de pointe, c'est le genre de truc qu'on attendait depuis longtemps. Ce qui est plus intéressant que ça en a l'air, c'est le deal SpaceX : Anthropic ne se contente plus des hyperscalers classiques, elle rachète de la capacité là où elle peut. C'est un mouvement malin dans une course où l'infra compte autant que les modèles.

InfrastructureOpinion
1 source
Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude
3The Decoder 

Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude

Anthropic va s'emparer de la totalité de la capacité de calcul du centre de données Colossus-1 de SpaceX, soit plus de 300 mégawatts d'électricité et plus de 220 000 GPU NVIDIA. Cette infrastructure colossale, attendue en ligne d'ici un mois, sera entièrement dédiée à alimenter les modèles Claude de la startup californienne. En parallèle, Anthropic annonce le doublement des limites de débit pour Claude Code et une augmentation significative des quotas d'API pour ses modèles Opus. Cette prise de contrôle représente un bond considérable en termes de puissance de calcul disponible pour Anthropic, directement répercuté sur les développeurs et entreprises qui utilisent ses API. Doubler les limites de Claude Code signifie concrètement que les équipes de développement pourront automatiser davantage de tâches sans se heurter aux restrictions actuelles, tandis que la hausse des quotas Opus ouvre la voie à des déploiements en production plus intensifs. C'est un signal fort envoyé aux clients enterprise qui hésitaient à migrer vers Claude en raison des contraintes de capacité. Colossus-1 a été initialement construit par xAI, la société d'intelligence artificielle d'Elon Musk, pour entraîner ses propres modèles Grok. Le fait qu'Anthropic en récupère la pleine capacité illustre la guerre d'infrastructure qui se joue en coulisse entre les grands laboratoires d'IA : disposer de suffisamment de GPU est désormais aussi stratégique que la qualité des modèles eux-mêmes. Avec ce partenariat, Anthropic consolide sa position face à OpenAI et Google DeepMind dans la course aux ressources de calcul à grande échelle.

UELes développeurs et entreprises européennes utilisant l'API Claude bénéficieront directement du doublement des quotas Claude Code et de la hausse des limites Opus, facilitant les déploiements en production à grande échelle.

💬 220 000 GPU construits par xAI pour Grok, qui finissent chez Anthropic. C'est un peu la blague de l'année, mais ça dit surtout que l'infrastructure est devenue aussi stratégique que les modèles eux-mêmes. Ce qui m'intéresse directement, c'est le doublement des limites Claude Code: les pipelines qui plafonnaient vont enfin pouvoir tourner sans jongler avec les quotas.

InfrastructureOpinion
1 source
4The Decoder 

OpenAI affirme à ses investisseurs que son infrastructure lui donne un avantage sur Anthropic

OpenAI a présenté à ses investisseurs un argument central : l'avance prise dans la construction de ses infrastructures de calcul lui confère un avantage décisif sur Anthropic. Selon le discours tenu aux financeurs, les années d'investissement massif dans les datacenters et les systèmes d'entraînement auraient créé une position difficile à rattraper pour ses concurrents. Parallèlement, la société a annoncé la mise en pause de son projet de datacenter au Royaume-Uni, une décision qui contraste avec l'ambition d'expansion mondiale affichée par OpenAI ces derniers mois. Cet argumentaire intervient dans un contexte de compétition intense pour le financement et la crédibilité commerciale. Pour les investisseurs, l'infrastructure représente une barrière à l'entrée concrète : elle conditionne la capacité à entraîner des modèles plus puissants, à tenir les délais de mise sur le marché, et à absorber des volumes d'utilisation croissants. Qu'OpenAI choisisse d'en faire un argument de différenciation signale que la bataille ne se joue plus uniquement sur la qualité des modèles, mais sur la profondeur des capacités opérationnelles. De son côté, Anthropic ne reste pas sans réponse : la startup explore la conception de puces IA personnalisées, une stratégie adoptée également par Google et Amazon pour réduire leur dépendance aux fournisseurs de semi-conducteurs comme Nvidia. Cette course aux ressources matérielles reflète une tendance de fond dans l'industrie, où la maîtrise de la chaîne de calcul devient aussi stratégique que les algorithmes eux-mêmes. La pause britannique d'OpenAI, quant à elle, soulève des questions sur les arbitrages géopolitiques et réglementaires qui pèsent sur les décisions d'implantation des grands acteurs de l'IA.

UELa mise en pause du projet de datacenter d'OpenAI au Royaume-Uni pourrait ralentir l'expansion des capacités d'infrastructure IA en Europe.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour