Aller au contenu principal
Google et SpaceX explorent des data centers spatiaux en orbite pour l’IA
InfrastructureLe Big Data37min

Google et SpaceX explorent des data centers spatiaux en orbite pour l’IA

Résumé IASources croisées · 3Impact UE
Source originale ↗·

Google et SpaceX seraient en pourparlers avancés sur le déploiement de centres de données en orbite basse, destinés à héberger des charges de calcul dédiées à l'intelligence artificielle. Selon le Wall Street Journal, les deux groupes étudient un accord qui permettrait à Google d'utiliser les capacités de lancement de SpaceX pour placer progressivement des infrastructures informatiques dans l'espace. Cette initiative reste encore au stade exploratoire, sans confirmation officielle d'Elon Musk, mais elle s'inscrit dans un contexte où SpaceX prépare une introduction en bourse valorisée à près de 1 750 milliards de dollars, pariant sur la viabilité économique future de ces infrastructures orbitales. Google ne limiterait pas non plus ses discussions à SpaceX, en parallèle de discussions avec d'autres acteurs du secteur spatial, tout en avançant sur son projet Suncatcher, annoncé en 2018, dont les premiers prototypes de satellites sont attendus à partir de 2027.

L'enjeu est considérable pour l'industrie tech. Les modèles d'IA générative réclament des volumes de calcul en croissance exponentielle, tandis que les data centers terrestres se heurtent à des limites de plus en plus contraignantes : consommation électrique massive, occupation foncière importante, et opposition croissante de riverains et d'élus dans plusieurs États américains. Des projets entiers ralentissent en raison d'inquiétudes autour de l'utilisation de l'eau, de l'empreinte carbone et de la pression sur les réseaux électriques locaux. Des infrastructures en orbite permettraient, en théorie, de contourner ces contraintes géographiques et réglementaires tout en ouvrant une nouvelle réserve de capacité de calcul décorrélée des tensions foncières terrestres. Elon Musk avance même que le coût d'exploitation de tels centres pourrait s'avérer inférieur à celui des data centers classiques, à mesure que les coûts de lancement continuent de baisser.

Ce mouvement vers l'espace s'inscrit dans une recomposition plus large des alliances autour de l'IA et des infrastructures. Anthropic et SpaceX ont récemment signé un accord portant sur l'accès aux ressources de calcul du centre de données de xAI à Memphis, avec des perspectives de collaboration sur des projets spatiaux à plus long terme. SpaceX a par ailleurs renforcé son positionnement dans l'écosystème IA après le rachat de xAI en février 2026, transformant l'entreprise de lancement en acteur intégré de la chaîne de valeur de l'intelligence artificielle. Si les data centers orbitaux restent une vision à horizon de plusieurs années, la convergence entre les géants du cloud, les fournisseurs de fusées et les laboratoires d'IA dessine d'ores et déjà les contours d'une bataille pour le contrôle des infrastructures du calcul de demain.

Impact France/UE

La domination américaine sur les futures infrastructures orbitales accentue les enjeux de souveraineté numérique pour l'Europe, sans impact opérationnel direct à court terme.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude
1The Decoder 

Anthropic utilise le datacenter Colossus-1 de SpaceX et ses 220 000 GPU pour alimenter Claude

Anthropic va s'emparer de la totalité de la capacité de calcul du centre de données Colossus-1 de SpaceX, soit plus de 300 mégawatts d'électricité et plus de 220 000 GPU NVIDIA. Cette infrastructure colossale, attendue en ligne d'ici un mois, sera entièrement dédiée à alimenter les modèles Claude de la startup californienne. En parallèle, Anthropic annonce le doublement des limites de débit pour Claude Code et une augmentation significative des quotas d'API pour ses modèles Opus. Cette prise de contrôle représente un bond considérable en termes de puissance de calcul disponible pour Anthropic, directement répercuté sur les développeurs et entreprises qui utilisent ses API. Doubler les limites de Claude Code signifie concrètement que les équipes de développement pourront automatiser davantage de tâches sans se heurter aux restrictions actuelles, tandis que la hausse des quotas Opus ouvre la voie à des déploiements en production plus intensifs. C'est un signal fort envoyé aux clients enterprise qui hésitaient à migrer vers Claude en raison des contraintes de capacité. Colossus-1 a été initialement construit par xAI, la société d'intelligence artificielle d'Elon Musk, pour entraîner ses propres modèles Grok. Le fait qu'Anthropic en récupère la pleine capacité illustre la guerre d'infrastructure qui se joue en coulisse entre les grands laboratoires d'IA : disposer de suffisamment de GPU est désormais aussi stratégique que la qualité des modèles eux-mêmes. Avec ce partenariat, Anthropic consolide sa position face à OpenAI et Google DeepMind dans la course aux ressources de calcul à grande échelle.

UELes développeurs et entreprises européennes utilisant l'API Claude bénéficieront directement du doublement des quotas Claude Code et de la hausse des limites Opus, facilitant les déploiements en production à grande échelle.

💬 220 000 GPU construits par xAI pour Grok, qui finissent chez Anthropic. C'est un peu la blague de l'année, mais ça dit surtout que l'infrastructure est devenue aussi stratégique que les modèles eux-mêmes. Ce qui m'intéresse directement, c'est le doublement des limites Claude Code: les pipelines qui plafonnaient vont enfin pouvoir tourner sans jongler avec les quotas.

InfrastructureOpinion
1 source
Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières
2Ars Technica AI 

Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières

Onze campus de centres de données en cours de construction aux États-Unis sont associés à des projets de centrales au gaz naturel dont les émissions combinées pourraient dépasser 129 millions de tonnes de gaz à effet de serre par an, soit plus que l'ensemble des émissions du Maroc en 2024. Ces chiffres proviennent de documents de demandes de permis atmosphériques examinés par WIRED, soumis auprès d'agences étatiques américaines. Les infrastructures concernées alimenteront des centres de données au service de quelques-unes des entreprises d'IA les plus puissantes du pays : OpenAI, Meta, Microsoft et xAI figurent parmi les bénéficiaires identifiés. Ces projets sont soit déjà annoncés, soit en cours de construction. Ce que révèlent ces chiffres dépasse largement un problème local : ils illustrent le coût climatique concret de la course mondiale à l'IA. La particularité de ces installations est qu'elles contournent le réseau électrique public pour alimenter directement et exclusivement les centres de données, un modèle dit "behind-the-meter". Résultat : leurs émissions échappent aux mécanismes habituels de régulation et de comptabilisation carbone. Pour les consommateurs, la dynamique est aussi préoccupante : cette stratégie est partiellement motivée par la volonté des géants technologiques d'éviter d'alourdir les factures d'électricité des ménages, qui subissent déjà une résistance publique croissante face à la hausse des tarifs. Cette tendance s'inscrit dans un contexte de saturation du réseau électrique américain : les délais de raccordement aux opérateurs traditionnels s'allongent considérablement, poussant les développeurs de centres de données à produire leur propre énergie. Les projets listés ne représentent selon WIRED que la partie émergée de l'iceberg, alors que les grandes entreprises technologiques s'engagent dans des centaines de nouveaux centres à travers le pays. La question de la compatibilité entre les objectifs climatiques des États-Unis et l'expansion effrénée de l'infrastructure IA se pose désormais avec une acuité nouvelle, au moment où plusieurs États commencent à examiner plus attentivement les permis accordés à ces projets énergétiques hors réseau.

UEL'UE, engagée dans des objectifs climatiques contraignants et le reporting carbone obligatoire, pourrait faire face à des pressions similaires si le modèle d'alimentation directe hors réseau se généralise dans ses propres projets d'infrastructure IA.

InfrastructureActu
1 source
Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison
3Next INpact 

Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison

Google a annoncé sa huitième génération de Tensor Processing Units (TPU), ses puces spécialisées dans les calculs d'intelligence artificielle. Pour la première fois dans l'histoire de la gamme, la firme de Mountain View propose deux variantes distinctes basées non plus sur le niveau de performance, mais sur le type d'usage : le TPU v8t, orienté vers l'entraînement des modèles, et le TPU v8i, dédié à l'inférence. C'est une rupture notable avec les générations précédentes, comme les v5e et v5p, qui se différenciaient uniquement par l'efficacité énergétique contre la puissance brute. Cette spécialisation par usage représente un changement de stratégie significatif pour Google. Selon la firme elle-même, "les deux puces peuvent gérer différentes charges de travail, mais la spécialisation permet d'obtenir des gains significatifs". En séparant l'entraînement de l'inférence au niveau matériel, Google cherche à optimiser le rapport performances/coût pour chaque étape du cycle de vie d'un modèle d'IA. Pour les entreprises clientes de Google Cloud, cela se traduit potentiellement par des coûts d'exploitation réduits et une meilleure efficacité dans le déploiement de modèles génératifs à grande échelle. Cette annonce s'inscrit dans une course aux puces IA qui s'est considérablement intensifiée depuis 2018, date des TPU v3. En huit générations, Google a construit une alternative crédible aux GPU de Nvidia, qui dominent encore largement le marché de l'accélération IA. La firme utilise ses TPU en interne pour entraîner ses propres modèles Gemini, ce qui lui confère un avantage compétitif double : maîtrise du hardware et du software. Face à la montée en puissance de concurrents comme les puces Trainium d'Amazon ou les Gaudi d'Intel, la spécialisation des TPU v8 pourrait devenir un argument commercial décisif pour attirer les grandes entreprises vers Google Cloud plutôt que vers AWS ou Azure.

UELes entreprises européennes qui s'appuient sur Google Cloud pour entraîner ou déployer des modèles d'IA pourraient bénéficier d'une réduction des coûts d'exploitation grâce à la spécialisation matérielle des TPU v8.

InfrastructureOpinion
1 source
NVIDIA et Google réduisent les coûts d'inférence en IA
4AI News 

NVIDIA et Google réduisent les coûts d'inférence en IA

Lors de la conférence Google Cloud Next, Google et NVIDIA ont dévoilé une nouvelle génération d'infrastructure destinée à réduire drastiquement le coût de l'inférence IA à grande échelle. Les deux entreprises ont présenté les instances A5X bare-metal, reposant sur les systèmes rack NVIDIA Vera Rubin NVL72. Cette architecture promet une réduction jusqu'à dix fois du coût d'inférence par token par rapport aux générations précédentes, tout en multipliant par dix le débit de tokens par mégawatt. Pour atteindre ces performances, les instances A5X combinent les SuperNICs NVIDIA ConnectX-9 avec la technologie réseau Google Virgo, permettant de connecter jusqu'à 80 000 GPU NVIDIA Rubin au sein d'un même site, et jusqu'à 960 000 GPU dans un déploiement multi-sites. Mark Lohmeyer, VP et directeur général de l'infrastructure IA chez Google Cloud, a résumé l'enjeu : "La prochaine décennie de l'IA sera façonnée par la capacité des entreprises à faire tourner leurs charges de travail les plus exigeantes sur une infrastructure vraiment intégrée et optimisée pour l'IA." Ces annonces ont un impact direct sur les secteurs fortement réglementés, comme la finance et la santé, qui butent régulièrement sur des contraintes de souveraineté des données. Google et NVIDIA y répondent avec plusieurs initiatives concrètes : les modèles Gemini fonctionnant sur GPU NVIDIA Blackwell et Blackwell Ultra sont désormais disponibles en préversion sur Google Distributed Cloud, ce qui permet aux organisations de garder les modèles frontier entièrement dans leur environnement contrôlé, au plus près de leurs données sensibles. La sécurité est assurée par NVIDIA Confidential Computing, un protocole de chiffrement matériel qui protège les données d'entraînement et les prompts y compris vis-à-vis des opérateurs cloud eux-mêmes. Pour les environnements cloud public multi-tenant, des VM Confidential G4 équipées de GPU NVIDIA RTX PRO 6000 Blackwell sont également introduites en préversion, marquant la première offre de confidential computing cloud pour des GPU Blackwell. Cette collaboration s'inscrit dans une course plus large à l'optimisation de l'inférence, alors que les coûts opérationnels de l'IA générative restent un frein majeur à son adoption industrielle. Au-delà du matériel, le partenariat couvre aussi la couche logicielle : NVIDIA Nemotron 3 Super est désormais disponible sur la Gemini Enterprise Agent Platform, permettant aux développeurs de construire des systèmes agentiques complexes capables de raisonner, planifier et agir en chaîne. L'ensemble de la plateforme NVIDIA sur Google Cloud est optimisé pour les familles de modèles Gemini et Gemma. Avec des clusters dépassant le million de GPU et une ambition affichée de simplifier le déploiement d'IA souveraine, Google et NVIDIA repositionnent l'infrastructure cloud non plus comme un simple fournisseur de puissance de calcul, mais comme un levier stratégique pour les entreprises qui veulent industrialiser l'IA sans sacrifier performance, coût ou conformité réglementaire.

UELes entreprises européennes des secteurs réglementés (finance, santé) disposent désormais d'options d'infrastructure IA souveraine compatibles avec les exigences RGPD, réduisant un frein concret à l'industrialisation de l'IA en Europe.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour