Aller au contenu principal
Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières
InfrastructureArs Technica AI1h

Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières

1 source couvre ce sujet·Source originale ↗·

Onze campus de centres de données en cours de construction aux États-Unis sont associés à des projets de centrales au gaz naturel dont les émissions combinées pourraient dépasser 129 millions de tonnes de gaz à effet de serre par an, soit plus que l'ensemble des émissions du Maroc en 2024. Ces chiffres proviennent de documents de demandes de permis atmosphériques examinés par WIRED, soumis auprès d'agences étatiques américaines. Les infrastructures concernées alimenteront des centres de données au service de quelques-unes des entreprises d'IA les plus puissantes du pays : OpenAI, Meta, Microsoft et xAI figurent parmi les bénéficiaires identifiés. Ces projets sont soit déjà annoncés, soit en cours de construction.

Ce que révèlent ces chiffres dépasse largement un problème local : ils illustrent le coût climatique concret de la course mondiale à l'IA. La particularité de ces installations est qu'elles contournent le réseau électrique public pour alimenter directement et exclusivement les centres de données, un modèle dit "behind-the-meter". Résultat : leurs émissions échappent aux mécanismes habituels de régulation et de comptabilisation carbone. Pour les consommateurs, la dynamique est aussi préoccupante : cette stratégie est partiellement motivée par la volonté des géants technologiques d'éviter d'alourdir les factures d'électricité des ménages, qui subissent déjà une résistance publique croissante face à la hausse des tarifs.

Cette tendance s'inscrit dans un contexte de saturation du réseau électrique américain : les délais de raccordement aux opérateurs traditionnels s'allongent considérablement, poussant les développeurs de centres de données à produire leur propre énergie. Les projets listés ne représentent selon WIRED que la partie émergée de l'iceberg, alors que les grandes entreprises technologiques s'engagent dans des centaines de nouveaux centres à travers le pays. La question de la compatibilité entre les objectifs climatiques des États-Unis et l'expansion effrénée de l'infrastructure IA se pose désormais avec une acuité nouvelle, au moment où plusieurs États commencent à examiner plus attentivement les permis accordés à ces projets énergétiques hors réseau.

Impact France/UE

L'UE, engagée dans des objectifs climatiques contraignants et le reporting carbone obligatoire, pourrait faire face à des pressions similaires si le modèle d'alimentation directe hors réseau se généralise dans ses propres projets d'infrastructure IA.

À lire aussi

Health Data Hub : la France acte (enfin) son virage vers un cloud souverain / UNIVITY mise 27 millions d’euros sur une infrastructure spatiale 5G / De Mistral à xAI : Devendra Chaplot change de camp
1FrenchWeb 

Health Data Hub : la France acte (enfin) son virage vers un cloud souverain / UNIVITY mise 27 millions d’euros sur une infrastructure spatiale 5G / De Mistral à xAI : Devendra Chaplot change de camp

La Plateforme des données de santé a officiellement sélectionné Scaleway, filiale du groupe Iliad, pour héberger ses infrastructures, mettant fin à des années de dépendance vis-à-vis de Microsoft Azure. Ce choix, issu d'un appel d'offres rigoureux, éloigne les données médicales de millions de Français du spectre du Cloud Act américain et affirme un virage vers la souveraineté numérique. En parallèle, la startup UNIVITY annonce une levée de 27 millions d'euros pour déployer une infrastructure 5G spatiale combinant satellites et réseaux terrestres. Enfin, Devendra Chaplot, chercheur passé par Mistral AI, rejoint xAI, la société d'intelligence artificielle d'Elon Musk. Ces trois actualités convergent autour d'un même enjeu : la souveraineté technologique européenne. Le choix de Scaleway par le Health Data Hub répond aux alertes répétées de la CNIL sur les risques d'exposition des données de santé aux injonctions extraterritoriales américaines, et constitue un signal fort pour les opérateurs de cloud souverain français. L'investissement d'UNIVITY positionne l'Europe sur le marché de la connectivité satellitaire face à Starlink, tandis que le départ de Chaplot vers xAI illustre la capacité des mastodontes américains à capter les talents IA européens. La controverse autour du Health Data Hub remonte à 2020, quand le contrat Microsoft avait déclenché une vague de critiques de juristes et d'associations de défense des droits numériques. Scaleway, certifié hébergeur de données de santé (HDS), était depuis le candidat naturel à ce contrat stratégique. Plus largement, ces trois événements dessinent un écosystème européen en tension entre ambition souveraine et attraction irrésistible des géants américains de la tech.

UELe Health Data Hub migre de Microsoft Azure vers Scaleway (groupe Iliad), soustrayant les données médicales de millions de Français au Cloud Act américain, victoire directe pour la souveraineté numérique française et signal fort pour l'écosystème cloud souverain européen.

InfrastructureActu
1 source
Quand les agents IA se parlent entre eux : la startup Band lance un 'orchestrateur universel
2VentureBeat AI 

Quand les agents IA se parlent entre eux : la startup Band lance un 'orchestrateur universel

Une nouvelle startup américaine, BAND (également connue sous le nom de Thenvoi AI Ltd.), est sortie de la confidentialité ce mois-ci avec 17 millions de dollars levés en financement Seed pour résoudre l'un des problèmes les plus concrets de l'essor des agents IA : leur incapacité à communiquer entre eux. Fondée par Arick Goomanovsky, la société se positionne comme un "orchestrateur universel", une couche d'infrastructure de communication que ses fondateurs qualifient de "Slack pour agents". Son architecture repose sur deux niveaux : un "agentic mesh" qui permet la découverte et la délégation structurée entre agents, et un plan de contrôle qui assure la gouvernance des permissions en temps réel. Contrairement à la plupart des solutions existantes, BAND ne fait pas appel à des LLM pour router les messages, préférant un système de routage déterministe breveté pour éviter les erreurs non-prévisibles. La plateforme supporte également la communication multi-pairs en duplex intégral, permettant à plusieurs agents, un agent de planification, un agent de code, un agent QA, de collaborer dans un espace partagé avec un contexte synchronisé. L'enjeu est considérable pour les entreprises qui ont massivement déployé des agents IA au cours des dix-huit derniers mois sans se soucier de leur interopérabilité. Un agent construit sur LangChain ne peut pas facilement déléguer une tâche à un agent CrewAI, et un agent intégré dans Salesforce n'a aucun moyen natif de se coordonner avec un script Python tournant sur un cloud privé. Sans infrastructure de communication dédiée, les organisations se retrouvent avec des dizaines d'agents isolés incapables de former une force de travail cohérente. BAND entend combler ce vide en devenant un middleware indépendant, compatible avec tous les frameworks et tous les clouds, éliminant ainsi la dépendance à un fournisseur unique. La gestion des identités et des droits d'accès est particulièrement critique : si un humain mandate l'agent A, qui délègue à l'agent B, BAND garantit que l'agent B n'accède qu'aux données auxquelles l'humain original est autorisé. Ce problème d'interopérabilité était prévisible dès le début de la vague agentique, mais l'industrie a d'abord prioritisé la création d'agents individuels au détriment de leur coordination. BAND s'inscrit dans une tendance plus large : après la phase de "construction", vient la phase de "mise en réseau". La startup s'appuie techniquement sur la même infrastructure que WhatsApp et Discord pour absorber les volumes de trafic attendus, anticipant un monde où les identités numériques dépasseront en nombre les identités humaines. Des protocoles comme MCP d'Anthropic ou A2A de Google posent des jalons, mais restent limités à des scénarios point-à-point. BAND parie sur un marché encore ouvert, avec des concurrents encore absents à cette échelle, pour s'imposer comme la couche de plomberie invisible d'une économie agentique en construction.

InfrastructureOpinion
1 source
Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison
3Next INpact 

Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison

Google a annoncé sa huitième génération de Tensor Processing Units (TPU), ses puces spécialisées dans les calculs d'intelligence artificielle. Pour la première fois dans l'histoire de la gamme, la firme de Mountain View propose deux variantes distinctes basées non plus sur le niveau de performance, mais sur le type d'usage : le TPU v8t, orienté vers l'entraînement des modèles, et le TPU v8i, dédié à l'inférence. C'est une rupture notable avec les générations précédentes, comme les v5e et v5p, qui se différenciaient uniquement par l'efficacité énergétique contre la puissance brute. Cette spécialisation par usage représente un changement de stratégie significatif pour Google. Selon la firme elle-même, "les deux puces peuvent gérer différentes charges de travail, mais la spécialisation permet d'obtenir des gains significatifs". En séparant l'entraînement de l'inférence au niveau matériel, Google cherche à optimiser le rapport performances/coût pour chaque étape du cycle de vie d'un modèle d'IA. Pour les entreprises clientes de Google Cloud, cela se traduit potentiellement par des coûts d'exploitation réduits et une meilleure efficacité dans le déploiement de modèles génératifs à grande échelle. Cette annonce s'inscrit dans une course aux puces IA qui s'est considérablement intensifiée depuis 2018, date des TPU v3. En huit générations, Google a construit une alternative crédible aux GPU de Nvidia, qui dominent encore largement le marché de l'accélération IA. La firme utilise ses TPU en interne pour entraîner ses propres modèles Gemini, ce qui lui confère un avantage compétitif double : maîtrise du hardware et du software. Face à la montée en puissance de concurrents comme les puces Trainium d'Amazon ou les Gaudi d'Intel, la spécialisation des TPU v8 pourrait devenir un argument commercial décisif pour attirer les grandes entreprises vers Google Cloud plutôt que vers AWS ou Azure.

UELes entreprises européennes qui s'appuient sur Google Cloud pour entraîner ou déployer des modèles d'IA pourraient bénéficier d'une réduction des coûts d'exploitation grâce à la spécialisation matérielle des TPU v8.

InfrastructureOpinion
1 source
NVIDIA et Google réduisent les coûts d'inférence en IA
4AI News 

NVIDIA et Google réduisent les coûts d'inférence en IA

Lors de la conférence Google Cloud Next, Google et NVIDIA ont dévoilé une nouvelle génération d'infrastructure destinée à réduire drastiquement le coût de l'inférence IA à grande échelle. Les deux entreprises ont présenté les instances A5X bare-metal, reposant sur les systèmes rack NVIDIA Vera Rubin NVL72. Cette architecture promet une réduction jusqu'à dix fois du coût d'inférence par token par rapport aux générations précédentes, tout en multipliant par dix le débit de tokens par mégawatt. Pour atteindre ces performances, les instances A5X combinent les SuperNICs NVIDIA ConnectX-9 avec la technologie réseau Google Virgo, permettant de connecter jusqu'à 80 000 GPU NVIDIA Rubin au sein d'un même site, et jusqu'à 960 000 GPU dans un déploiement multi-sites. Mark Lohmeyer, VP et directeur général de l'infrastructure IA chez Google Cloud, a résumé l'enjeu : "La prochaine décennie de l'IA sera façonnée par la capacité des entreprises à faire tourner leurs charges de travail les plus exigeantes sur une infrastructure vraiment intégrée et optimisée pour l'IA." Ces annonces ont un impact direct sur les secteurs fortement réglementés, comme la finance et la santé, qui butent régulièrement sur des contraintes de souveraineté des données. Google et NVIDIA y répondent avec plusieurs initiatives concrètes : les modèles Gemini fonctionnant sur GPU NVIDIA Blackwell et Blackwell Ultra sont désormais disponibles en préversion sur Google Distributed Cloud, ce qui permet aux organisations de garder les modèles frontier entièrement dans leur environnement contrôlé, au plus près de leurs données sensibles. La sécurité est assurée par NVIDIA Confidential Computing, un protocole de chiffrement matériel qui protège les données d'entraînement et les prompts y compris vis-à-vis des opérateurs cloud eux-mêmes. Pour les environnements cloud public multi-tenant, des VM Confidential G4 équipées de GPU NVIDIA RTX PRO 6000 Blackwell sont également introduites en préversion, marquant la première offre de confidential computing cloud pour des GPU Blackwell. Cette collaboration s'inscrit dans une course plus large à l'optimisation de l'inférence, alors que les coûts opérationnels de l'IA générative restent un frein majeur à son adoption industrielle. Au-delà du matériel, le partenariat couvre aussi la couche logicielle : NVIDIA Nemotron 3 Super est désormais disponible sur la Gemini Enterprise Agent Platform, permettant aux développeurs de construire des systèmes agentiques complexes capables de raisonner, planifier et agir en chaîne. L'ensemble de la plateforme NVIDIA sur Google Cloud est optimisé pour les familles de modèles Gemini et Gemma. Avec des clusters dépassant le million de GPU et une ambition affichée de simplifier le déploiement d'IA souveraine, Google et NVIDIA repositionnent l'infrastructure cloud non plus comme un simple fournisseur de puissance de calcul, mais comme un levier stratégique pour les entreprises qui veulent industrialiser l'IA sans sacrifier performance, coût ou conformité réglementaire.

UELes entreprises européennes des secteurs réglementés (finance, santé) disposent désormais d'options d'infrastructure IA souveraine compatibles avec les exigences RGPD, réduisant un frein concret à l'industrialisation de l'IA en Europe.

InfrastructureActu
1 source