Aller au contenu principal
Microsoft et les fournisseurs cloud resserrent leur emprise sur les GPU, au détriment des clients IA
InfrastructureThe Information AI1h

Microsoft et les fournisseurs cloud resserrent leur emprise sur les GPU, au détriment des clients IA

1 source couvre ce sujet·Source originale ↗·

Microsoft et d'autres grands fournisseurs de cloud redirigent leurs stocks de GPU Nvidia vers leurs équipes internes ou leurs clients enterprise les plus importants, privant les startups d'IA d'un accès fiable aux serveurs dont elles ont besoin. Cette pénurie touche des entreprises pourtant solidement financées, soutenues par des fonds majeurs comme Sequoia Capital, Founders Fund, General Catalyst et Andreessen Horowitz. La situation est suffisamment préoccupante pour qu'Hemant Taneja, directeur général de General Catalyst, ait envoyé un sondage à ses fondateurs en portefeuille pour évaluer leur capacité à accéder aux ressources de calcul.

Cette tension sur l'offre a des conséquences directes et immédiates : les startups qui ne parviennent pas à obtenir des GPU auprès des fournisseurs cloud traditionnels se retrouvent contraintes de se tourner vers des alternatives plus coûteuses ou moins stables. Pour des entreprises dont le modèle repose entièrement sur la puissance de calcul, entraînement de modèles, inférence, recherche, une rupture d'approvisionnement peut ralentir le développement de produits et éroder l'avantage concurrentiel acquis grâce aux levées de fonds.

Cette situation reflète une tension structurelle dans l'écosystème de l'IA : les hyperscalers comme Microsoft, Google ou Amazon ont massivement investi dans leurs propres capacités d'IA et traitent désormais leurs besoins internes en priorité. Face à une demande mondiale de GPU Nvidia qui dépasse largement l'offre disponible, les petits acteurs se retrouvent en bas de la liste d'attente, dans un marché où l'accès au calcul est devenu aussi stratégique que le capital lui-même.

Impact France/UE

Les startups IA européennes, également dépendantes des hyperscalers américains pour l'accès aux GPU Nvidia, sont exposées à la même tension structurelle qui freine leur développement face aux priorités internes des fournisseurs cloud.

À lire aussi

Health Data Hub : la France acte (enfin) son virage vers un cloud souverain / UNIVITY mise 27 millions d’euros sur une infrastructure spatiale 5G / De Mistral à xAI : Devendra Chaplot change de camp
1FrenchWeb 

Health Data Hub : la France acte (enfin) son virage vers un cloud souverain / UNIVITY mise 27 millions d’euros sur une infrastructure spatiale 5G / De Mistral à xAI : Devendra Chaplot change de camp

La Plateforme des données de santé a officiellement sélectionné Scaleway, filiale du groupe Iliad, pour héberger ses infrastructures, mettant fin à des années de dépendance vis-à-vis de Microsoft Azure. Ce choix, issu d'un appel d'offres rigoureux, éloigne les données médicales de millions de Français du spectre du Cloud Act américain et affirme un virage vers la souveraineté numérique. En parallèle, la startup UNIVITY annonce une levée de 27 millions d'euros pour déployer une infrastructure 5G spatiale combinant satellites et réseaux terrestres. Enfin, Devendra Chaplot, chercheur passé par Mistral AI, rejoint xAI, la société d'intelligence artificielle d'Elon Musk. Ces trois actualités convergent autour d'un même enjeu : la souveraineté technologique européenne. Le choix de Scaleway par le Health Data Hub répond aux alertes répétées de la CNIL sur les risques d'exposition des données de santé aux injonctions extraterritoriales américaines, et constitue un signal fort pour les opérateurs de cloud souverain français. L'investissement d'UNIVITY positionne l'Europe sur le marché de la connectivité satellitaire face à Starlink, tandis que le départ de Chaplot vers xAI illustre la capacité des mastodontes américains à capter les talents IA européens. La controverse autour du Health Data Hub remonte à 2020, quand le contrat Microsoft avait déclenché une vague de critiques de juristes et d'associations de défense des droits numériques. Scaleway, certifié hébergeur de données de santé (HDS), était depuis le candidat naturel à ce contrat stratégique. Plus largement, ces trois événements dessinent un écosystème européen en tension entre ambition souveraine et attraction irrésistible des géants américains de la tech.

UELe Health Data Hub migre de Microsoft Azure vers Scaleway (groupe Iliad), soustrayant les données médicales de millions de Français au Cloud Act américain, victoire directe pour la souveraineté numérique française et signal fort pour l'écosystème cloud souverain européen.

InfrastructureActu
1 source
Quand les agents IA se parlent entre eux : la startup Band lance un 'orchestrateur universel
2VentureBeat AI 

Quand les agents IA se parlent entre eux : la startup Band lance un 'orchestrateur universel

Une nouvelle startup américaine, BAND (également connue sous le nom de Thenvoi AI Ltd.), est sortie de la confidentialité ce mois-ci avec 17 millions de dollars levés en financement Seed pour résoudre l'un des problèmes les plus concrets de l'essor des agents IA : leur incapacité à communiquer entre eux. Fondée par Arick Goomanovsky, la société se positionne comme un "orchestrateur universel", une couche d'infrastructure de communication que ses fondateurs qualifient de "Slack pour agents". Son architecture repose sur deux niveaux : un "agentic mesh" qui permet la découverte et la délégation structurée entre agents, et un plan de contrôle qui assure la gouvernance des permissions en temps réel. Contrairement à la plupart des solutions existantes, BAND ne fait pas appel à des LLM pour router les messages, préférant un système de routage déterministe breveté pour éviter les erreurs non-prévisibles. La plateforme supporte également la communication multi-pairs en duplex intégral, permettant à plusieurs agents, un agent de planification, un agent de code, un agent QA, de collaborer dans un espace partagé avec un contexte synchronisé. L'enjeu est considérable pour les entreprises qui ont massivement déployé des agents IA au cours des dix-huit derniers mois sans se soucier de leur interopérabilité. Un agent construit sur LangChain ne peut pas facilement déléguer une tâche à un agent CrewAI, et un agent intégré dans Salesforce n'a aucun moyen natif de se coordonner avec un script Python tournant sur un cloud privé. Sans infrastructure de communication dédiée, les organisations se retrouvent avec des dizaines d'agents isolés incapables de former une force de travail cohérente. BAND entend combler ce vide en devenant un middleware indépendant, compatible avec tous les frameworks et tous les clouds, éliminant ainsi la dépendance à un fournisseur unique. La gestion des identités et des droits d'accès est particulièrement critique : si un humain mandate l'agent A, qui délègue à l'agent B, BAND garantit que l'agent B n'accède qu'aux données auxquelles l'humain original est autorisé. Ce problème d'interopérabilité était prévisible dès le début de la vague agentique, mais l'industrie a d'abord prioritisé la création d'agents individuels au détriment de leur coordination. BAND s'inscrit dans une tendance plus large : après la phase de "construction", vient la phase de "mise en réseau". La startup s'appuie techniquement sur la même infrastructure que WhatsApp et Discord pour absorber les volumes de trafic attendus, anticipant un monde où les identités numériques dépasseront en nombre les identités humaines. Des protocoles comme MCP d'Anthropic ou A2A de Google posent des jalons, mais restent limités à des scénarios point-à-point. BAND parie sur un marché encore ouvert, avec des concurrents encore absents à cette échelle, pour s'imposer comme la couche de plomberie invisible d'une économie agentique en construction.

InfrastructureOpinion
1 source
Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières
3Ars Technica AI 

Les émissions de gaz à effet de serre des data centers pourraient dépasser celles de nations entières

Onze campus de centres de données en cours de construction aux États-Unis sont associés à des projets de centrales au gaz naturel dont les émissions combinées pourraient dépasser 129 millions de tonnes de gaz à effet de serre par an, soit plus que l'ensemble des émissions du Maroc en 2024. Ces chiffres proviennent de documents de demandes de permis atmosphériques examinés par WIRED, soumis auprès d'agences étatiques américaines. Les infrastructures concernées alimenteront des centres de données au service de quelques-unes des entreprises d'IA les plus puissantes du pays : OpenAI, Meta, Microsoft et xAI figurent parmi les bénéficiaires identifiés. Ces projets sont soit déjà annoncés, soit en cours de construction. Ce que révèlent ces chiffres dépasse largement un problème local : ils illustrent le coût climatique concret de la course mondiale à l'IA. La particularité de ces installations est qu'elles contournent le réseau électrique public pour alimenter directement et exclusivement les centres de données, un modèle dit "behind-the-meter". Résultat : leurs émissions échappent aux mécanismes habituels de régulation et de comptabilisation carbone. Pour les consommateurs, la dynamique est aussi préoccupante : cette stratégie est partiellement motivée par la volonté des géants technologiques d'éviter d'alourdir les factures d'électricité des ménages, qui subissent déjà une résistance publique croissante face à la hausse des tarifs. Cette tendance s'inscrit dans un contexte de saturation du réseau électrique américain : les délais de raccordement aux opérateurs traditionnels s'allongent considérablement, poussant les développeurs de centres de données à produire leur propre énergie. Les projets listés ne représentent selon WIRED que la partie émergée de l'iceberg, alors que les grandes entreprises technologiques s'engagent dans des centaines de nouveaux centres à travers le pays. La question de la compatibilité entre les objectifs climatiques des États-Unis et l'expansion effrénée de l'infrastructure IA se pose désormais avec une acuité nouvelle, au moment où plusieurs États commencent à examiner plus attentivement les permis accordés à ces projets énergétiques hors réseau.

UEL'UE, engagée dans des objectifs climatiques contraignants et le reporting carbone obligatoire, pourrait faire face à des pressions similaires si le modèle d'alimentation directe hors réseau se généralise dans ses propres projets d'infrastructure IA.

InfrastructureActu
1 source
Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison
4Next INpact 

Google lance ses TPU v8 et spécialise ses puces pour l’IA : enjeux et comparatif maison

Google a annoncé sa huitième génération de Tensor Processing Units (TPU), ses puces spécialisées dans les calculs d'intelligence artificielle. Pour la première fois dans l'histoire de la gamme, la firme de Mountain View propose deux variantes distinctes basées non plus sur le niveau de performance, mais sur le type d'usage : le TPU v8t, orienté vers l'entraînement des modèles, et le TPU v8i, dédié à l'inférence. C'est une rupture notable avec les générations précédentes, comme les v5e et v5p, qui se différenciaient uniquement par l'efficacité énergétique contre la puissance brute. Cette spécialisation par usage représente un changement de stratégie significatif pour Google. Selon la firme elle-même, "les deux puces peuvent gérer différentes charges de travail, mais la spécialisation permet d'obtenir des gains significatifs". En séparant l'entraînement de l'inférence au niveau matériel, Google cherche à optimiser le rapport performances/coût pour chaque étape du cycle de vie d'un modèle d'IA. Pour les entreprises clientes de Google Cloud, cela se traduit potentiellement par des coûts d'exploitation réduits et une meilleure efficacité dans le déploiement de modèles génératifs à grande échelle. Cette annonce s'inscrit dans une course aux puces IA qui s'est considérablement intensifiée depuis 2018, date des TPU v3. En huit générations, Google a construit une alternative crédible aux GPU de Nvidia, qui dominent encore largement le marché de l'accélération IA. La firme utilise ses TPU en interne pour entraîner ses propres modèles Gemini, ce qui lui confère un avantage compétitif double : maîtrise du hardware et du software. Face à la montée en puissance de concurrents comme les puces Trainium d'Amazon ou les Gaudi d'Intel, la spécialisation des TPU v8 pourrait devenir un argument commercial décisif pour attirer les grandes entreprises vers Google Cloud plutôt que vers AWS ou Azure.

UELes entreprises européennes qui s'appuient sur Google Cloud pour entraîner ou déployer des modèles d'IA pourraient bénéficier d'une réduction des coûts d'exploitation grâce à la spécialisation matérielle des TPU v8.

InfrastructureOpinion
1 source