Aller au contenu principal
ThinkLabs AI, soutenue par Nvidia, lève 28 millions de dollars pour répondre à la crise du réseau électrique
InfrastructureVentureBeat AI6sem

ThinkLabs AI, soutenue par Nvidia, lève 28 millions de dollars pour répondre à la crise du réseau électrique

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

ThinkLabs AI, une startup américaine spécialisée dans la modélisation par intelligence artificielle des réseaux électriques, a annoncé la clôture d'un tour de table de 28 millions de dollars en Série A. Le tour a été mené par Energy Impact Partners (EIP), l'un des plus grands fonds d'investissement dans la transition énergétique, avec la participation de NVentures — le bras capital-risque de Nvidia — et d'Edison International, maison mère de Southern California Edison. Parmi les investisseurs récurrents figurent GE Vernova, Powerhouse Ventures, Blackhorn Ventures et Amplify Capital, ainsi qu'une grande utility nord-américaine non nommée. Le montant final a dépassé l'objectif initial : le tour était sursouscrit, selon le PDG Josh Wong, en raison de la forte demande des partenaires stratégiques.

La technologie de ThinkLabs s'attaque à un goulot d'étranglement critique dans l'ingénierie des réseaux électriques. Lorsqu'un opérateur doit évaluer l'impact du raccordement d'un datacenter ou d'un cluster de bornes de recharge sur un sous-réseau, il doit lancer des simulations de flux de puissance — des calculs complexes qui prennent traditionnellement plusieurs semaines avec les outils hérités de Siemens, GE ou Schneider Electric. ThinkLabs remplace ce processus par des modèles d'IA dits « physics-informed », entraînés sur les sorties de simulateurs physiques de référence. Résultat : une étude qui prenait un mois est compressée en moins de trois minutes, et 10 millions de scénarios peuvent être simulés en 10 minutes, avec une précision supérieure à 99,7 % sur les calculs de flux de puissance. Wong insiste sur la rigueur de l'approche : « Ce n'est pas de l'IA générative qui hallucine — c'est du calcul d'ingénierie, comparable à la dynamique des fluides ou aux modèles climatiques. »

L'enjeu est considérable. Selon le cabinet ICF International, la demande électrique américaine devrait croître de 25 % d'ici 2030, tirée par les datacenters d'IA, l'électrification des transports et du bâtiment. Cette montée en charge percute de plein fouet une infrastructure conçue il y a plusieurs décennies pour des usages radicalement différents. Les utilities peinent à suivre : les files d'attente pour raccorder de nouveaux équipements au réseau de transport s'allongent, faute de capacité à modéliser rapidement les impacts. La participation de Nvidia au tour n'est pas anodine : le géant des puces graphiques est à la fois bénéficiaire et contributeur de cette explosion de la demande énergétique liée à l'IA, et a tout intérêt à ce que les infrastructures électriques tiennent la cadence. ThinkLabs se positionne ainsi à l'intersection de deux des grandes transitions de la décennie — numérique et énergétique — avec une application de l'IA qui touche directement à la fiabilité des réseaux physiques.

Impact France/UE

La multiplication des datacenters IA et l'électrification accélérée posent des défis similaires aux gestionnaires de réseaux européens comme RTE ou Elia, qui pourraient bénéficier d'approches comparables pour réduire les délais de raccordement.

💬 Le point de vue du dev

Un mois de calcul en trois minutes. Sur le papier ça sonne pitch deck, mais l'approche physics-informed c'est du concret : on accélère de la simulation physique réelle, on ne demande pas à un LLM de deviner des flux de puissance. Nvidia dans le tour, c'est presque logique, ils créent le problème de consommation et financent la solution pour que les réseaux tiennent.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Mistral AI lève 830 millions de dollars pour un centre de données IA
1AI Business 

Mistral AI lève 830 millions de dollars pour un centre de données IA

Mistral AI a annoncé avoir levé 830 millions de dollars pour financer la construction d'un centre de données dédié à l'intelligence artificielle, qui sera implanté en région parisienne. Cette infrastructure, alimentée par des milliers de puces Nvidia, représente l'un des investissements les plus importants jamais réalisés dans l'IA en Europe. La startup française, fondée en 2023, consolide ainsi sa position parmi les acteurs majeurs du secteur à l'échelle mondiale. Ce centre de calcul donnera à Mistral une capacité d'entraînement et d'inférence souveraine, réduisant sa dépendance aux infrastructures cloud américaines comme AWS ou Azure. Pour les entreprises et institutions européennes soucieuses de la localisation de leurs données, cette infrastructure sur sol français représente une alternative crédible aux géants américains. C'est aussi un signal fort sur la capacité de l'Europe à construire une filière IA complète, du modèle jusqu'au silicium. Mistral s'inscrit dans une course mondiale à la puissance de calcul où les États-Unis et la Chine investissent des dizaines de milliards. La France, qui a fait de l'IA souveraine une priorité industrielle, bénéficie ici d'un effet d'entraînement : après les annonces gouvernementales du plan France 2030, un acteur privé passe à l'acte à grande échelle. Les prochains mois diront si d'autres startups européennes suivront cette voie ou si Mistral restera une exception dans un paysage dominé par les hyperscalers américains.

UEMistral AI construit un centre de calcul souverain en région parisienne, offrant aux entreprises et institutions françaises et européennes une alternative locale aux hyperscalers américains pour l'hébergement et l'inférence IA sensibles.

💬 830 millions pour un datacenter, c'est le moment où Mistral arrête de jouer dans la cour des grands et devient un grand. Ce qui m'intéresse vraiment là-dedans, c'est la souveraineté d'inférence : des boîtes françaises qui pourront faire tourner des modèles sans que leurs données passent par Virginia ou Oregon. Reste à voir combien ça coûtera à l'usage.

InfrastructureOpinion
1 source
L'efficacité à grande échelle : NVIDIA et les acteurs de l'énergie accélèrent les centres d'IA flexibles pour renforcer le réseau électrique
2NVIDIA AI Blog 

L'efficacité à grande échelle : NVIDIA et les acteurs de l'énergie accélèrent les centres d'IA flexibles pour renforcer le réseau électrique

NVIDIA et la startup Emerald AI ont présenté lors du CERAWeek — le sommet mondial de l'énergie surnommé le « Davos de l'énergie » — une architecture inédite qui transforme les usines à IA en actifs flexibles pour le réseau électrique. Construite sur la plateforme NVIDIA Vera Rubin DSX et le logiciel Conductor d'Emerald AI, cette approche intègre calcul, gestion de l'énergie et pilotage en temps réel dans une architecture unifiée. Concrètement, une usine à IA peut désormais moduler sa consommation électrique en fonction des conditions du réseau, tout en continuant à produire des tokens. Six grands acteurs de l'énergie — AES, Constellation, Invenergy, NextEra Energy, Nscale Energy & Power et Vistra — se sont engagés à construire des capacités de production compatibles avec cette architecture, notamment via des projets hybrides combinant alimentation locale et connexion au réseau. Du côté de l'efficacité pure, NVIDIA revendique une progression d'un million de fois le nombre de tokens générés pour un même budget énergétique, entre le GPU Kepler de 2012 et la plateforme Vera Rubin lancée cette année. La métrique clé est désormais le « tokens par seconde par watt ». Cet enjeu dépasse la simple optimisation technique : la croissance explosive des infrastructures IA menace de déstabiliser des réseaux électriques déjà sous tension. En rendant les centres de calcul capables de s'adapter en temps réel à l'offre disponible — en réduisant leur consommation lors des pics de demande, par exemple — cette approche évite de dimensionner le réseau pour des pointes qui ne surviennent que rarement. Pour les opérateurs d'énergie, cela représente une nouvelle classe de clients industriels qui, au lieu de fragiliser le réseau, peuvent contribuer à sa stabilité. Pour les entreprises qui déploient l'IA à grande échelle, l'avantage est double : des coûts opérationnels réduits et un accès accéléré à la puissance électrique, souvent le principal goulot d'étranglement dans la construction de nouveaux data centers. Jensen Huang, fondateur et PDG de NVIDIA, décrit l'infrastructure IA comme un « gâteau à cinq couches » — énergie, puces, infrastructure, modèles, applications — dans lequel l'énergie constitue la base fondatrice. C'est dans cette logique que s'inscrit également l'annonce de Maximo, une entreprise de robotique solaire incubée par AES, qui a achevé l'installation autonome d'une ferme solaire de 100 mégawatts sur le site Bellefield d'AES, en utilisant NVIDIA Omniverse et Isaac Sim. TerraPower, en partenariat avec SoftServe, a de son côté présenté une plateforme de jumeau numérique propulsée par Omniverse pour accélérer la conception de réacteurs nucléaires. Ces annonces illustrent une tendance de fond : l'IA ne se contente plus de consommer de l'énergie, elle commence à en accélérer la production.

UENscale, opérateur européen de data centers, figure parmi les six partenaires engagés dans cette architecture, ce qui pourrait influencer la stratégie énergétique des centres de calcul IA en Europe.

InfrastructureActu
1 source
Mistral AI sécurise 830 millions de dollars en dette pour exploiter son premier centre de données en France
3Maddyness 

Mistral AI sécurise 830 millions de dollars en dette pour exploiter son premier centre de données en France

Mistral AI a finalisé un financement par dette de 830 millions de dollars destiné à l'exploitation de son premier centre de données souverain en France. Cette opération, distincte d'une levée de fonds en capital classique, permet à la startup parisienne fondée en 2023 de conserver sa structure actionnariale tout en mobilisant des ressources massives pour une infrastructure physique propre. Ce passage à l'hébergement en propre marque un tournant stratégique majeur : Mistral ne dépend plus uniquement des hyperscalers américains comme AWS ou Azure pour faire tourner ses modèles. Disposer d'un datacenter français signifie une maîtrise totale de la chaîne de traitement des données, un argument de poids auprès des clients institutionnels et des gouvernements européens soucieux de souveraineté numérique. Ce mouvement s'inscrit dans une course mondiale à la puissance de calcul où les acteurs de l'IA réalisent que le contrôle de l'infrastructure est aussi stratégique que les modèles eux-mêmes. Mistral, qui compte parmi ses clients la Commission européenne et plusieurs États membres, consolide ainsi sa position de champion européen face aux géants américains. L'opération pourrait également préfigurer une introduction en bourse ou un partenariat industriel à grande échelle dans les mois à venir.

UEMistral AI construit un datacenter souverain en France, réduisant la dépendance aux hyperscalers américains et offrant aux institutions publiques et gouvernements européens une alternative crédible pour le traitement souverain des données.

💬 C'est le move qu'on attendait depuis que Mistral a commencé à vendre aux gouvernements. Un datacenter souverain en France, c'est pas un bonus symbolique, c'est la condition pour décrocher les gros contrats institutionnels sans que personne te demande où tournent les données. Et 830 millions en dette plutôt qu'en capital, ça dit beaucoup sur leur ambition : ils préservent l'actionnariat pour ce qui vient après.

InfrastructureOpinion
1 source
NVIDIA Spectrum-X, le réseau Ethernet ouvert conçu pour l'IA, s'impose comme référence à grande échelle, avec MRC
4NVIDIA AI Blog 

NVIDIA Spectrum-X, le réseau Ethernet ouvert conçu pour l'IA, s'impose comme référence à grande échelle, avec MRC

NVIDIA a annoncé que son infrastructure réseau Spectrum-X Ethernet intègre désormais le protocole MRC (Multipath Reliable Connection), une innovation développée conjointement avec OpenAI et Microsoft, et désormais publiée en spécification ouverte via l'Open Compute Project. MRC est un protocole de transport RDMA qui permet à une seule connexion réseau de distribuer le trafic sur plusieurs chemins simultanément, améliorant le débit, l'équilibrage de charge et la disponibilité des infrastructures d'entraînement IA à grande échelle. Parmi les premiers déploiements en production figurent le datacenter Fairwater de Microsoft et le datacenter Abilene d'Oracle Cloud Infrastructure, deux des plus grandes usines IA au monde dédiées à l'entraînement de modèles de pointe. OpenAI a notamment intégré MRC dans sa génération Blackwell : Sachin Katti, responsable du calcul industriel chez OpenAI, a confirmé que le protocole a permis d'éviter la majorité des ralentissements réseau habituels lors des runs d'entraînement frontier à grande échelle. L'enjeu est directement économique et computationnel : dans un cluster d'entraînement réunissant des milliers de GPU, la moindre interruption réseau peut bloquer l'intégralité d'un job d'entraînement, laissant des GPU à l'arrêt et brûlant des millions de dollars en temps de calcul inutilisé. MRC répond à ce problème en détectant les pannes réseau en quelques microsecondes et en reroutant automatiquement le trafic dans le matériel lui-même, sans intervention logicielle. Le protocole maintient également une bande passante élevée sous congestion en évitant dynamiquement les chemins surchargés en temps réel, et minimise l'impact des pertes de paquets grâce à une retransmission intelligente et ciblée. Les administrateurs gagnent par ailleurs une visibilité granulaire sur les chemins de trafic, ce qui simplifie considérablement les opérations à très grande échelle. Cette annonce s'inscrit dans une course mondiale à la construction d'infrastructures réseau capables de suivre l'explosion des besoins en calcul IA. Jusqu'ici, InfiniBand de Mellanox, aussi propriété de NVIDIA, dominait les clusters HPC et IA haute performance, tandis qu'Ethernet était perçu comme moins adapté aux charges de travail intensives. Spectrum-X représente la tentative de NVIDIA de rendre Ethernet compétitif sur ce terrain en y ajoutant une couche matérielle et protocolaire dédiée à l'IA. La publication de MRC comme spécification ouverte via l'Open Compute Project est un signal stratégique fort : en permettant à d'autres acteurs d'implémenter le protocole, NVIDIA cherche à imposer Spectrum-X comme standard de facto du réseau Ethernet pour l'IA, face aux alternatives comme Ultra Ethernet Consortium poussé par AMD, Intel et d'autres. La prochaine étape sera de voir si d'autres fournisseurs cloud et constructeurs de clusters adoptent MRC à leur tour.

UELa publication de MRC comme spécification ouverte via l'Open Compute Project pourrait à terme bénéficier aux centres de données européens qui développent des infrastructures d'entraînement IA, mais aucune entreprise ou institution européenne n'est directement impliquée dans cette annonce.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour