
Des tokens moins chers, des factures plus élevées : la nouvelle économie de l'infrastructure IA
Le coût d'une inférence IA a chuté d'environ un facteur dix en deux ans, porté par des gains d'efficacité sur les modèles et la concurrence acharnée entre fournisseurs cloud. Pourtant, les factures d'infrastructure des entreprises ne baissent pas : elles augmentent. C'est le paradoxe que décrit Anindo Sengupta, vice-président produits chez Nutanix : si le coût par token diminue d'un ordre de grandeur, la consommation, elle, a bondi de plus de 100 fois sur la même période. Résultat, les équipes IT se retrouvent à gérer des volumes d'inférence que rien ne laissait prévoir il y a deux ans, et des budgets GPU qui s'envolent malgré des prix unitaires en chute libre.
Ce que les économistes appellent le paradoxe de Jevons se matérialise ici très concrètement : une ressource moins chère incite à en consommer davantage, jusqu'à dépasser les économies réalisées. L'essor de l'IA agentique amplifie le phénomène. Chaque assistant IA déployé en entreprise, chaque workflow automatisé, chaque pipeline d'agents génère en continu des milliers de requêtes d'inférence courtes et imprévisibles, très éloignées des gros jobs de training planifiés à l'avance. Ces flux bombardent les GPU, saturent les interconnexions réseau et sollicitent des systèmes de stockage conçus pour des charges stables. Le coût par token et le taux d'utilisation GPU deviennent ainsi des métriques opérationnelles de premier plan, au même titre que la disponibilité ou le débit. Les optimiser reste complexe : les variables sont trop nombreuses pour être gérées intuitivement, modèles, localisation des workloads, structure des prompts.
Cette rupture expose les limites structurelles des datacenters traditionnels, pensés pour des charges prévisibles et des cycles d'approvisionnement longs. L'infrastructure agentique exige une topologie GPU spécifique, des interconnexions haute vitesse, un stockage parallèle pour les caches KV et la mémoire des agents. Quand GPU, réseau et stockage sont gérés en silos distincts, les inefficacités s'accumulent : les assets GPU coûteux se retrouvent sous-utilisés pendant que le réseau ou le stockage constituent les goulets d'étranglement. Face à cette réalité, les grands acteurs de l'infrastructure, Nutanix en tête, poussent vers des plateformes full-stack intégrées et validées de bout en bout, capables d'optimiser simultanément le calcul, le réseau et le stockage pour les workloads IA en production. L'enjeu n'est plus simplement de déployer de l'IA, mais de la faire tourner à l'échelle sans que les coûts d'infrastructure ne neutralisent les gains de productivité.
Les DSI européens déployant de l'IA agentique subissent le même effet Jevons : la baisse du coût par token est annulée par l'explosion des volumes d'inférence, rendant l'optimisation de l'infrastructure GPU une priorité budgétaire immédiate.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.




