Aller au contenu principal
5 % d'utilisation GPU : le problème d'infrastructure IA à 401 milliards de dollars que les entreprises ne peuvent plus ignorer
InfrastructureVentureBeat AI12h

5 % d'utilisation GPU : le problème d'infrastructure IA à 401 milliards de dollars que les entreprises ne peuvent plus ignorer

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

Les entreprises ont dépensé des milliards pour sécuriser des GPU à tout prix, et la facture est désormais présentée. Selon Gartner, l'infrastructure IA représente 401 milliards de dollars de nouvelles dépenses en 2025, mais des audits terrain révèlent une réalité bien plus sombre : le taux d'utilisation moyen des GPU en entreprise stagne à 5 %. Pendant deux ans, la panique du « GPU scramble » a poussé DSI et directions financières à constituer des réserves de capacité sous des cycles d'amortissement de trois à cinq ans. Ces actifs sont désormais des coûts fixes inscrits aux bilans, indépendamment de leur usage effectif. Les chiffres du Q1 2026 confirment le basculement : dans le baromètre de VentureBeat, le critère « accès aux GPU » est passé de 20,8 % à 15,4 % en un seul trimestre comme moteur principal des décisions d'achat, tandis que le coût par inférence et le TCO (coût total de possession) bondissaient de 34 % à 41 %, dépassant la performance pure comme critère dominant.

À 5 % d'utilisation, l'arithmétique est brutale : pour chaque dollar investi en silicium, 95 centimes partent directement dans la marge des fournisseurs cloud. Dans n'importe quel autre département, un taux de gaspillage de 95 % serait un motif de licenciement ; dans l'infrastructure IA, on appelait ça de la « préparation ». Les grands groupes comme Intuit, Mastercard ou Pfizer, qui bénéficiaient de relations privilégiées avec AWS, Azure et GCP pour sécuriser des réservations de capacité, se sont retrouvés riches en GPU mais pauvres en production : des équipes internes paralysées par la gouvernance des données, la gravité des données et une immaturité architecturale persistante ont empêché toute valorisation réelle de ces ressources. Le discours dominant sur la rareté du silicium a servi d'écran commode pour masquer cette inefficacité structurelle.

Ce virage marque la fin de l'ère du chèque en blanc. Le passage à une tarification à l'usage en 2026 transforme les architectures héritées des phases pilotes, pensées avec des tokens en coûts fixes, en véritables passifs financiers. Les agents en contexte long et les pipelines de récupération complexes, construits quand les tokens étaient un coût noyé dans des licences forfaitaires, deviennent intenables sous une facturation mesuréé. L'inférence n'est plus un projet tactique : c'est un modèle économique stratégique dont les unités économiques sont, pour la plupart des entreprises, encore insoutenables. La question n'est plus de savoir si les investissements passés étaient justifiés, mais comment extraire un retour mesurable d'une infrastructure déjà déployée avant que les cycles d'amortissement ne l'emportent.

Impact France/UE

Les entreprises européennes investies en infrastructure GPU sont exposées au même risque de sous-utilisation à 5 %, avec des cycles d'amortissement sur 3-5 ans qui transforment ces actifs en passifs financiers au moment où le marché bascule vers une tarification à l'usage.

💬 Le point de vue du dev

5 % d'utilisation, c'est le genre de stat qui ferait renvoyer n'importe quel responsable infra dans un département classique. La panique du GPU scramble a servi de couverture : on achetait du silicium pour ne pas rater le train, sans se demander si les équipes data étaient capables d'en faire quelque chose. Le basculement vers le pay-as-you-go va transformer ces réserves en passifs, et ça va faire des dégâts.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

La mise en production de l'IA à grande échelle oblige les entreprises à repenser leur infrastructure
1VentureBeat AI 

La mise en production de l'IA à grande échelle oblige les entreprises à repenser leur infrastructure

Le déploiement de l'intelligence artificielle à grande échelle est en train de redessiner l'architecture informatique des entreprises. C'est le constat que dressent Tarkan Maner, président et directeur commercial de Nutanix, et Thomas Cornely, vice-président exécutif en charge du produit, qui observent une bascule profonde dans la façon dont les organisations abordent l'IA. Après des mois de prototypes et d'expérimentations dans le cloud, les entreprises cherchent désormais à déployer ces systèmes sur des charges de travail réelles, pour des milliers d'utilisateurs simultanés. Cornely résume l'écart : "Faire un prototype, c'est une chose. Déployer ce prototype pour 10 000 employés, c'en est une autre." La montée en puissance des agents IA, capables d'enchaîner des tâches complexes en toute autonomie, amplifie encore cette pression : les infrastructures doivent gérer des workflows multi-étapes, des charges imprévisibles en temps réel, et coordonner l'accès aux données entre équipes. Ce passage du pilote à la production révèle des contraintes pratiques que l'expérimentation en cloud avait masquées. Les questions de gouvernance des données, de contrôle, de sécurité et de coût prennent rapidement le dessus dès que les volumes augmentent. Les cas d'usage qui progressent le plus vite sont la recherche documentaire et la récupération de connaissances, la détection prédictive des menaces en cybersécurité, les workflows de développement logiciel, et le support client. Dans le secteur bancaire, notamment en Europe et aux États-Unis, des établissements déploient déjà des outils de reconnaissance faciale et de détection prédictive des cyberattaques pilotés par l'IA. L'enjeu n'est pas de remplacer les décisions humaines, mais de trouver le bon équilibre entre l'automatisation et l'intervention humaine, ce que Maner résume par l'idée d'une "harmonie" entre agents IA, robotique et capital humain, optimisée pour de meilleurs résultats opérationnels. Cette transformation s'inscrit dans un contexte de mutation accélérée qui touche l'ensemble des secteurs, des industries réglementées comme la banque, la santé et les administrations publiques jusqu'à la distribution et la manufacture. Des frameworks comme OpenClaw facilitent désormais la création d'agents par des équipes qui n'ont pas de compétences en infrastructure IA, ce qui accroît la pression sur les plateformes chargées de sécuriser ces déploiements. La trajectoire dominante est claire : débuter dans le cloud pour accéder rapidement aux ressources, puis rapatrier les applications critiques sur site à mesure qu'elles entrent en production, sur des plateformes qui résolvent les problèmes de sécurité et de coût à la fois. Nutanix se positionne explicitement sur ce segment, voyant dans cette transition une opportunité de croissance majeure à mesure que les entreprises cherchent des partenaires capables d'accompagner l'IA de l'expérimentation au déploiement industriel.

UELe secteur bancaire européen est cité parmi les premiers adopteurs de l'IA en production (reconnaissance faciale, détection prédictive des cyberattaques), illustrant les enjeux croissants de gouvernance et de souveraineté des données pour les entreprises françaises et européennes.

InfrastructureActu
1 source
Le FOMO pousse les entreprises à payer des GPU inutilisés et fait grimper les prix
2VentureBeat AI 

Le FOMO pousse les entreprises à payer des GPU inutilisés et fait grimper les prix

Les entreprises qui investissent massivement dans les GPU d'intelligence artificielle n'en utilisent en réalité que 5 % de leur capacité, selon le rapport 2026 de Cast AI sur l'optimisation Kubernetes, qui s'appuie sur des mesures de clusters en production réelle. Laurent Gil, cofondateur et président de Cast AI, suit cette dynamique depuis deux ans. Il estime qu'une gestion humaine raisonnable devrait atteindre environ 30 % d'utilisation, compte tenu des cycles jour/nuit et des week-ends. À 5 %, les entreprises exploitent leur infrastructure la plus coûteuse à un sixième de ce que produirait une approche sans effort particulier. Dans le même temps, AWS a discrètement relevé ses prix sur les GPU H200 réservés d'environ 15 % un samedi de janvier, sans annonce officielle, tandis que les fabricants de mémoire ont augmenté les tarifs de la HBM3e de 20 % pour 2026. C'est la première fois depuis le lancement d'EC2 par AWS en 2006 qu'un hyperscaler hausse ses prix GPU réservés plutôt que de les baisser. Ce paradoxe a des conséquences concrètes sur les budgets technologiques de milliers d'entreprises. L'hypothèse fondamentale qui sous-tend la plupart des projections de dépenses cloud, que la puissance de calcul devient moins chère chaque année, ne tient plus au sommet de la pile. Le marché s'est scindé en deux niveaux : côté commodity, les prix du H100 à la demande ont chuté de 7,57 dollars par GPU-heure en septembre 2025 à environ 3,93 dollars aujourd'hui, avec des fournisseurs comme Lambda Labs ou RunPod sous les 3 dollars. Mais côté frontier, la logique s'est inversée. Nvidia a reçu des commandes pour 2 millions de puces H200 pour 2026, contre un stock disponible de 700 000 unités. Les capacités d'assemblage avancé de TSMC, indispensables à chaque GPU équipé de HBM, sont réservées jusqu'à mi-2027 au moins. AMD a prévenu de ses propres hausses de prix pour 2026, et même les A100, dont le coût devait baisser à l'expiration des réservations triennales de 2023, repartent à la hausse. La mécanique qui explique ces 5 % d'utilisation tient à un processus d'achat dominé par la peur de manquer. Une entreprise rejoint une liste d'attente chez un hyperscaler, attend des semaines ou des mois, puis reçoit un appel : 36 GPU disponibles immédiatement, engagement d'un ou trois ans exigé, à prendre ou à laisser. La question n'est alors plus de savoir si les charges de travail justifient cette capacité, mais de ne pas perdre le créneau. Une fois les GPU obtenus, personne ne les rend : les récupérer prendrait des mois et aucune équipe ne veut être celle qui a renoncé à sa capacité. La flotte reste donc allumée, facturée à l'heure, utilisée ou non. Gil observe même des entreprises payer les tarifs à la demande, trois fois plus chers que les réservations annuelles, simplement parce que la souplesse paraît moins risquée que l'engagement. La pénurie nourrit la thésaurisation, et la thésaurisation entretient la pénurie.

UELes entreprises européennes utilisant des GPU cloud subissent les mêmes hausses de prix sur les H200 réservés et le HBM3e, alourdissant leurs budgets IA sans gain de performance.

InfrastructureOpinion
1 source
Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA
3VentureBeat AI 

Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA

Le coût d'une inférence IA a chuté d'environ un facteur dix en deux ans, porté par des gains d'efficacité sur les modèles et la concurrence acharnée entre fournisseurs cloud. Pourtant, les factures d'infrastructure des entreprises ne baissent pas : elles augmentent. C'est le paradoxe que décrit Anindo Sengupta, vice-président produits chez Nutanix : si le coût par token diminue d'un ordre de grandeur, la consommation, elle, a bondi de plus de 100 fois sur la même période. Résultat, les équipes IT se retrouvent à gérer des volumes d'inférence que rien ne laissait prévoir il y a deux ans, et des budgets GPU qui s'envolent malgré des prix unitaires en chute libre. Ce que les économistes appellent le paradoxe de Jevons se matérialise ici très concrètement : une ressource moins chère incite à en consommer davantage, jusqu'à dépasser les économies réalisées. L'essor de l'IA agentique amplifie le phénomène. Chaque assistant IA déployé en entreprise, chaque workflow automatisé, chaque pipeline d'agents génère en continu des milliers de requêtes d'inférence courtes et imprévisibles, très éloignées des gros jobs de training planifiés à l'avance. Ces flux bombardent les GPU, saturent les interconnexions réseau et sollicitent des systèmes de stockage conçus pour des charges stables. Le coût par token et le taux d'utilisation GPU deviennent ainsi des métriques opérationnelles de premier plan, au même titre que la disponibilité ou le débit. Les optimiser reste complexe : les variables sont trop nombreuses pour être gérées intuitivement, modèles, localisation des workloads, structure des prompts. Cette rupture expose les limites structurelles des datacenters traditionnels, pensés pour des charges prévisibles et des cycles d'approvisionnement longs. L'infrastructure agentique exige une topologie GPU spécifique, des interconnexions haute vitesse, un stockage parallèle pour les caches KV et la mémoire des agents. Quand GPU, réseau et stockage sont gérés en silos distincts, les inefficacités s'accumulent : les assets GPU coûteux se retrouvent sous-utilisés pendant que le réseau ou le stockage constituent les goulets d'étranglement. Face à cette réalité, les grands acteurs de l'infrastructure, Nutanix en tête, poussent vers des plateformes full-stack intégrées et validées de bout en bout, capables d'optimiser simultanément le calcul, le réseau et le stockage pour les workloads IA en production. L'enjeu n'est plus simplement de déployer de l'IA, mais de la faire tourner à l'échelle sans que les coûts d'infrastructure ne neutralisent les gains de productivité.

UELes DSI européens déployant de l'IA agentique subissent le même effet Jevons : la baisse du coût par token est annulée par l'explosion des volumes d'inférence, rendant l'optimisation de l'infrastructure GPU une priorité budgétaire immédiate.

InfrastructureActu
1 source
Nvidia s’allie à IREN pour déployer 5 GW d’infrastructures IA
4Le Big Data 

Nvidia s’allie à IREN pour déployer 5 GW d’infrastructures IA

Nvidia et IREN ont annoncé le 7 mai 2026 un partenariat stratégique visant à déployer jusqu'à 5 gigawatts d'infrastructures IA à travers le réseau mondial de centres de données d'IREN. L'accord s'appuie sur l'architecture DSX de Nvidia, conçue pour industrialiser le déploiement de clusters GPU à très grande échelle. Un contrat de 3,4 milliards de dollars a également été signé dans ce cadre, par lequel IREN fournira des services cloud d'infrastructure IA pour les besoins internes de Nvidia. Le campus texan de Sweetwater, site de 2 gigawatts présenté comme le futur projet phare de ce déploiement, concentrera une grande partie des investissements initiaux. Dans cette architecture, Nvidia apporte la puissance de calcul accélérée et l'expertise en infrastructure, tandis qu'IREN prend en charge l'énergie, le foncier, l'exploitation des data centers et le déploiement physique des clusters GPU. Ce partenariat illustre un basculement profond dans la façon dont se joue la compétition dans l'IA. Pendant des années, l'avantage concurrentiel reposait avant tout sur les performances des modèles et l'accès aux puces. Désormais, la capacité à construire rapidement des infrastructures capables d'alimenter en continu l'entraînement et l'inférence de modèles devient tout aussi décisive. Les cibles prioritaires de ce projet sont les entreprises natives de l'IA, les startups spécialisées et les grands groupes à fort besoin de calcul. Jensen Huang, fondateur et PDG de Nvidia, résume cette vision en affirmant que les "AI factories deviennent une infrastructure fondamentale comparable aux réseaux électriques ou aux télécommunications". Cette déclaration marque le repositionnement explicite de Nvidia : l'entreprise ne vend plus uniquement des GPU, mais une offre complète d'infrastructure IA à l'échelle industrielle. Ce mouvement s'inscrit dans une dynamique plus large où la question énergétique devient aussi stratégique que l'accès aux semi-conducteurs. Le Texas attire une part croissante des investissements dans l'IA et les data centers grâce à son accès à l'énergie, ses disponibilités foncières et ses infrastructures industrielles. IREN occupe une position particulière sur ce marché avec un modèle verticalement intégré qui combine centres de données, accès aux réseaux électriques et clusters GPU, le tout implanté dans des régions riches en énergies renouvelables en Amérique du Nord. Le partenariat avec Nvidia lui confère une crédibilité et une visibilité sans précédent pour capter les besoins colossaux en infrastructure que génère la généralisation de l'IA générative dans les entreprises. Les 5 GW annoncés seront déployés progressivement, ce qui laisse entendre que d'autres sites viendront compléter Sweetwater dans les prochaines années.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour