Aller au contenu principal
Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial
OutilsNVIDIA AI Blog6sem

Les usines d'IA flexibles en énergie peuvent stabiliser le réseau électrique mondial

Résumé IASource uniqueImpact UE
Source originale ↗·

Lors d'un quart de finale de l'UEFA EURO 2020 entre l'Angleterre et l'Allemagne, des millions de Britanniques ont simultanément allumé leur bouilloire à la mi-temps, provoquant un pic de demande d'1 gigawatt — l'équivalent d'un réacteur nucléaire standard — en quelques minutes sur le réseau de National Grid. Ce phénomène, surnommé le "TV pickup", illustre parfaitement le défi posé par les pics de consommation électrique. Une coalition menée par Emerald AI vient de démontrer qu'une usine d'IA peut non seulement absorber ces chocs, mais devenir un véritable stabilisateur du réseau.

La croissance explosive des centres de données et usines d'IA représente une pression croissante sur des infrastructures électriques déjà sous tension. Connecter ces nouveaux grands consommateurs au réseau nécessite habituellement des années de travaux d'infrastructure coûteux. La technologie présentée dans ce livre blanc, fruit d'une collaboration entre Emerald AI, NVIDIA, EPRI, National Grid et Nebius, change radicalement l'équation : une usine d'IA capable d'ajuster sa consommation de manière autonome peut se connecter plus rapidement au réseau existant, sans attendre des mises à niveau massives — et contribue à contenir la hausse des tarifs d'électricité pour les particuliers.

Les essais ont été conduits dans une usine d'IA de Nebius à Londres, équipée d'un cluster de 96 GPU NVIDIA Blackwell Ultra interconnectés via la plateforme NVIDIA Quantum-X800 InfiniBand. La plateforme Emerald AI Conductor a atteint une conformité de 100 % sur plus de 200 consignes de puissance transmises par EPRI et National Grid, simulant des scénarios critiques — foudre, déficit éolien prolongé, ou reconstitution du pic de la mi-temps du match de 2020. Résultat : le cluster a réduit sa consommation à la demande sans interrompre les charges de travail IA prioritaires, les tâches moins urgentes étant simplement ralenties temporairement.

Steve Smith, directeur général de la stratégie de National Grid, a souligné la portée inédite de ces tests : "Nous avons testé non seulement les GPU, mais aussi les CPU et l'ensemble des équipements IT — ainsi que la consommation totale." Varun Sivaram, fondateur et PDG d'Emerald AI, y voit une transformation structurelle : les usines d'IA cessent d'être des charges passives pour devenir des actifs actifs au service de la stabilité du réseau, tout en bénéficiant elles-mêmes d'un accès plus rapide à l'infrastructure existante.

Impact France/UE

Les gestionnaires de réseaux européens confrontés à la même explosion des besoins énergétiques liés à l'IA pourraient adopter cette approche pour stabiliser leur réseau sans surinvestissement en infrastructures permanentes.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Le directeur technique d'Uber montre comment Claude Code peut faire exploser les budgets IA
1The Information AI 

Le directeur technique d'Uber montre comment Claude Code peut faire exploser les budgets IA

Le directeur technique d'Uber, Praveen Neppalli Naga, a révélé que l'entreprise a épuisé l'intégralité de son budget annuel en intelligence artificielle en seulement quelques mois, début 2026. La cause principale : une adoption massive de Claude Code, l'outil de programmation assistée par IA d'Anthropic. "Je dois tout revoir, car le budget que je pensais nécessaire a déjà été largement dépassé", a-t-il déclaré dans une interview. Cette explosion des coûts illustre concrètement les tensions que vivent de nombreuses entreprises technologiques qui cherchent à tirer profit des nouveaux outils d'IA tout en maintenant une discipline financière. L'impact est direct et mesurable : là où les équipes dirigeantes anticipaient une adoption progressive, la réalité terrain a été bien plus rapide et intensive. Uber a délibérément encouragé ses ingénieurs à utiliser l'IA sans restriction, allant jusqu'à créer des classements internes valorisant les développeurs qui y recourent le plus. Ce type d'incitation crée une dynamique de consommation difficile à prévoir budgétairement, surtout lorsque les outils sont facturés à l'usage. Ce cas n'est pas isolé : plusieurs grandes entreprises ont adopté des stratégies similaires de déploiement massif des outils d'IA générative, pariant sur les gains de productivité pour justifier les coûts. Mais le modèle économique de ces outils, souvent basé sur le nombre de tokens consommés, peut réserver de mauvaises surprises à grande échelle. La question qui se pose désormais pour Uber comme pour le reste du secteur est de savoir comment encadrer l'usage sans freiner les bénéfices attendus.

UELes DSI et directions techniques européennes déployant des outils d'IA facturés à l'usage font face aux mêmes risques de dépassement budgétaire imprévisible documentés ici.

OutilsOutil
1 source
L'efficacité à grande échelle : NVIDIA et les acteurs de l'énergie accélèrent les centres d'IA flexibles pour renforcer le réseau électrique
2NVIDIA AI Blog 

L'efficacité à grande échelle : NVIDIA et les acteurs de l'énergie accélèrent les centres d'IA flexibles pour renforcer le réseau électrique

NVIDIA et la startup Emerald AI ont présenté lors du CERAWeek — le sommet mondial de l'énergie surnommé le « Davos de l'énergie » — une architecture inédite qui transforme les usines à IA en actifs flexibles pour le réseau électrique. Construite sur la plateforme NVIDIA Vera Rubin DSX et le logiciel Conductor d'Emerald AI, cette approche intègre calcul, gestion de l'énergie et pilotage en temps réel dans une architecture unifiée. Concrètement, une usine à IA peut désormais moduler sa consommation électrique en fonction des conditions du réseau, tout en continuant à produire des tokens. Six grands acteurs de l'énergie — AES, Constellation, Invenergy, NextEra Energy, Nscale Energy & Power et Vistra — se sont engagés à construire des capacités de production compatibles avec cette architecture, notamment via des projets hybrides combinant alimentation locale et connexion au réseau. Du côté de l'efficacité pure, NVIDIA revendique une progression d'un million de fois le nombre de tokens générés pour un même budget énergétique, entre le GPU Kepler de 2012 et la plateforme Vera Rubin lancée cette année. La métrique clé est désormais le « tokens par seconde par watt ». Cet enjeu dépasse la simple optimisation technique : la croissance explosive des infrastructures IA menace de déstabiliser des réseaux électriques déjà sous tension. En rendant les centres de calcul capables de s'adapter en temps réel à l'offre disponible — en réduisant leur consommation lors des pics de demande, par exemple — cette approche évite de dimensionner le réseau pour des pointes qui ne surviennent que rarement. Pour les opérateurs d'énergie, cela représente une nouvelle classe de clients industriels qui, au lieu de fragiliser le réseau, peuvent contribuer à sa stabilité. Pour les entreprises qui déploient l'IA à grande échelle, l'avantage est double : des coûts opérationnels réduits et un accès accéléré à la puissance électrique, souvent le principal goulot d'étranglement dans la construction de nouveaux data centers. Jensen Huang, fondateur et PDG de NVIDIA, décrit l'infrastructure IA comme un « gâteau à cinq couches » — énergie, puces, infrastructure, modèles, applications — dans lequel l'énergie constitue la base fondatrice. C'est dans cette logique que s'inscrit également l'annonce de Maximo, une entreprise de robotique solaire incubée par AES, qui a achevé l'installation autonome d'une ferme solaire de 100 mégawatts sur le site Bellefield d'AES, en utilisant NVIDIA Omniverse et Isaac Sim. TerraPower, en partenariat avec SoftServe, a de son côté présenté une plateforme de jumeau numérique propulsée par Omniverse pour accélérer la conception de réacteurs nucléaires. Ces annonces illustrent une tendance de fond : l'IA ne se contente plus de consommer de l'énergie, elle commence à en accélérer la production.

UENscale, opérateur européen de data centers, figure parmi les six partenaires engagés dans cette architecture, ce qui pourrait influencer la stratégie énergétique des centres de calcul IA en Europe.

InfrastructureActu
1 source
Sage et AWS veulent démocratiser l’IA agentique dans les PME
3Le Big Data 

Sage et AWS veulent démocratiser l’IA agentique dans les PME

Sage et AWS ont annoncé lors du salon Sage Future à San Francisco un renforcement significatif de leur partenariat stratégique, centré sur l'IA agentique à destination des petites et moyennes entreprises. L'accord porte sur quatre axes concrets : le développement de logiciels financiers cloud enrichis par l'IA, l'intégration des solutions Sage Developer sur Amazon Bedrock AgentCore, la distribution via AWS Marketplace, et l'accélération des migrations des outils de bureau vers le cloud. Concrètement, les agents IA de Sage automatiseront des tâches financières critiques : comptabilité fournisseurs, gestion de trésorerie, paie et rapports de conformité. Steve Hare, PDG de Sage, a résumé la philosophie du projet : "L'IA représente une opportunité majeure pour les PME, mais son adoption dépend avant tout de la confiance, des outils disponibles et de la simplicité d'intégration." Pour les PME, ce partenariat représente un changement de paradigme potentiellement significatif. Aujourd'hui, beaucoup d'entre elles s'appuient encore sur des logiciels financiers installés localement, difficiles à maintenir et inadaptés à l'IA moderne. L'enjeu n'est pas simplement de gagner du temps sur des tâches répétitives : il s'agit de permettre aux dirigeants d'accéder plus rapidement à des données financières fiables pour prendre de meilleures décisions. Via AWS Marketplace, les solutions de Sage pourront être déployées directement dans les environnements que les clients utilisent déjà, sans friction technique supplémentaire. Julia White, directrice marketing d'AWS, estime que les entreprises en croissance "ne devraient plus avoir à choisir entre simplicité et puissance technologique." Ce rapprochement s'inscrit dans une tendance de fond : selon l'International Data Corporation, les dépenses mondiales en IA devraient progresser de 31,9 % par an entre 2025 et 2029. Le marché sort de la phase expérimentale pour entrer dans un déploiement opérationnel à grande échelle, mais les PME restent à la traîne face aux coûts de modernisation et à la complexité des migrations cloud. En combinant l'expertise de Sage dans les logiciels financiers pour PME avec l'infrastructure d'AWS et la puissance de Bedrock AgentCore, les deux groupes cherchent à abaisser ces barrières. Le modèle ouvre également une opportunité aux éditeurs indépendants partenaires de Sage, qui pourront développer des applications compatibles avec AgentCore et les distribuer via la marketplace d'AWS sans reconstruire une infrastructure commerciale de zéro, ce qui pourrait accélérer l'émergence d'un écosystème d'outils financiers agentiques dédiés aux PME.

UESage étant largement déployé dans les PME françaises et européennes, ce partenariat pourrait accélérer la migration vers des logiciels comptables cloud avec IA agentique intégrée, réduisant concrètement les barrières techniques et financières pour les dirigeants de PME en France.

💬 Sage est déjà dans les compta de milliers de PME françaises, c'est ça qui rend l'annonce intéressante. Pas besoin de convaincre quelqu'un de changer d'outil, juste de lui glisser des agents dans ce qu'il utilise déjà. Reste à voir si la promesse "simple à intégrer" tient quand c'est le comptable d'une menuiserie de 12 personnes qui s'y colle.

OutilsOutil
1 source
Strands Evals : simuler des utilisateurs réalistes pour évaluer les agents IA multi-tours
4AWS ML Blog 

Strands Evals : simuler des utilisateurs réalistes pour évaluer les agents IA multi-tours

Amazon a publié dans son SDK Strands Evaluations une fonctionnalité appelée ActorSimulator, destinée à automatiser l'évaluation des agents IA dans des conversations multi-tours. Contrairement aux tests à tour unique — où l'on fournit une entrée, on collecte une sortie et on juge le résultat — les interactions réelles s'étendent sur plusieurs échanges : l'utilisateur pose des questions de suivi, change de direction ou exprime sa frustration face à des réponses incomplètes. Un assistant de voyage qui gère correctement "Réserve-moi un vol pour Paris" peut échouer lorsque le même utilisateur enchaîne avec "En fait, peut-on regarder les trains ?" ou "Qu'en est-il des hôtels près de la tour Eiffel ?". L'ActorSimulator permet de générer des utilisateurs simulés avec des personas structurés et des objectifs définis, puis de les laisser converser naturellement avec un agent sur plusieurs tours, à grande échelle. L'enjeu est considérable pour les équipes qui développent des agents conversationnels en production. Conduire manuellement des centaines de conversations multi-tours à chaque modification d'un agent est insoutenable, et les jeux de données statiques d'entrées/sorties ne capturent pas la dynamique réelle : la "bonne" prochaine question de l'utilisateur dépend entièrement de ce que l'agent vient de répondre. Les approches artisanales consistant à demander à un LLM de "jouer l'utilisateur" sans définition structurée du persona produisent des résultats incohérents d'une exécution à l'autre, rendant impossible la détection fiable de régressions. L'ActorSimulator répond à ce problème en combinant le réalisme d'une conversation humaine avec la reproductibilité et l'échelle des tests automatisés. Ce développement s'inscrit dans une tendance plus large de l'industrie à professionnaliser l'évaluation des agents IA, à mesure que ceux-ci quittent les démos pour entrer dans des usages critiques. AWS positionne Strands Evaluations comme une infrastructure d'évaluation systématique, comparable aux simulateurs de vol ou aux moteurs de jeu qui testent des millions de comportements avant déploiement. La difficulté fondamentale réside dans la croissance combinatoire des chemins de conversation : plus les capacités d'un agent s'étoffent, plus le nombre de scénarios possibles explose au-delà de ce que des équipes humaines peuvent explorer. En permettant la simulation structurée de personas avec des objectifs explicites et un suivi de progression, Strands Evals vise à offrir aux équipes d'évaluation un outil comparable à ce que les testeurs de logiciels ont dans d'autres disciplines d'ingénierie, avec des résultats comparables dans le temps.

OutilsOutil
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour