Aller au contenu principal
ThinkLabs AI, soutenue par Nvidia, lève 28 millions de dollars pour répondre à la crise du réseau électrique
InfrastructureVentureBeat AI2h

ThinkLabs AI, soutenue par Nvidia, lève 28 millions de dollars pour répondre à la crise du réseau électrique

1 source couvre ce sujet·Source originale ↗·

ThinkLabs AI, une startup américaine spécialisée dans la modélisation par intelligence artificielle des réseaux électriques, a annoncé la clôture d'un tour de table de 28 millions de dollars en Série A. Le tour a été mené par Energy Impact Partners (EIP), l'un des plus grands fonds d'investissement dans la transition énergétique, avec la participation de NVentures — le bras capital-risque de Nvidia — et d'Edison International, maison mère de Southern California Edison. Parmi les investisseurs récurrents figurent GE Vernova, Powerhouse Ventures, Blackhorn Ventures et Amplify Capital, ainsi qu'une grande utility nord-américaine non nommée. Le montant final a dépassé l'objectif initial : le tour était sursouscrit, selon le PDG Josh Wong, en raison de la forte demande des partenaires stratégiques.

La technologie de ThinkLabs s'attaque à un goulot d'étranglement critique dans l'ingénierie des réseaux électriques. Lorsqu'un opérateur doit évaluer l'impact du raccordement d'un datacenter ou d'un cluster de bornes de recharge sur un sous-réseau, il doit lancer des simulations de flux de puissance — des calculs complexes qui prennent traditionnellement plusieurs semaines avec les outils hérités de Siemens, GE ou Schneider Electric. ThinkLabs remplace ce processus par des modèles d'IA dits « physics-informed », entraînés sur les sorties de simulateurs physiques de référence. Résultat : une étude qui prenait un mois est compressée en moins de trois minutes, et 10 millions de scénarios peuvent être simulés en 10 minutes, avec une précision supérieure à 99,7 % sur les calculs de flux de puissance. Wong insiste sur la rigueur de l'approche : « Ce n'est pas de l'IA générative qui hallucine — c'est du calcul d'ingénierie, comparable à la dynamique des fluides ou aux modèles climatiques. »

L'enjeu est considérable. Selon le cabinet ICF International, la demande électrique américaine devrait croître de 25 % d'ici 2030, tirée par les datacenters d'IA, l'électrification des transports et du bâtiment. Cette montée en charge percute de plein fouet une infrastructure conçue il y a plusieurs décennies pour des usages radicalement différents. Les utilities peinent à suivre : les files d'attente pour raccorder de nouveaux équipements au réseau de transport s'allongent, faute de capacité à modéliser rapidement les impacts. La participation de Nvidia au tour n'est pas anodine : le géant des puces graphiques est à la fois bénéficiaire et contributeur de cette explosion de la demande énergétique liée à l'IA, et a tout intérêt à ce que les infrastructures électriques tiennent la cadence. ThinkLabs se positionne ainsi à l'intersection de deux des grandes transitions de la décennie — numérique et énergétique — avec une application de l'IA qui touche directement à la fiabilité des réseaux physiques.

Impact France/UE

La multiplication des datacenters IA et l'électrification accélérée posent des défis similaires aux gestionnaires de réseaux européens comme RTE ou Elia, qui pourraient bénéficier d'approches comparables pour réduire les délais de raccordement.

💬 Le point de vue du dev

Un mois de calcul en trois minutes. Sur le papier ça sonne pitch deck, mais l'approche physics-informed c'est du concret : on accélère de la simulation physique réelle, on ne demande pas à un LLM de deviner des flux de puissance. Nvidia dans le tour, c'est presque logique, ils créent le problème de consommation et financent la solution pour que les réseaux tiennent.

À lire aussi

L’impressionnante reconversion de Dell : du secteur des PC à celui des serveurs IA
1Presse-citron 

L’impressionnante reconversion de Dell : du secteur des PC à celui des serveurs IA

Dell Technologies a enregistré une croissance de 103 % de son activité liée à l'intelligence artificielle au cours de son exercice fiscal en cours, une progression qui illustre la transformation profonde d'un groupe longtemps associé aux ordinateurs personnels grand public. L'entreprise s'est repositionnée sur la fourniture de solutions complètes pour l'IA : serveurs haute densité compatibles GPU, infrastructures de stockage et services d'intégration destinés aux entreprises qui déploient des modèles d'IA à grande échelle. Ce virage stratégique place Dell en compétition directe avec HPE, Supermicro et les hyperscalers sur le marché de l'infrastructure IA, qui représente l'un des segments les plus dynamiques de l'industrie technologique mondiale. La demande explose côté entreprises — banques, assureurs, industriels — qui cherchent à internaliser leurs capacités IA plutôt que de dépendre exclusivement du cloud public, créant ainsi un débouché massif pour les intégrateurs capables de livrer des stacks clés en main. Dell bénéficie ici d'un avantage structurel : ses relations commerciales historiques avec des centaines de milliers d'entreprises lui permettent de vendre de l'infrastructure IA à des clients qu'il fournit déjà en matériel depuis des décennies. Cette reconversion rappelle celle d'IBM vers les services ou de Microsoft vers le cloud — une entreprise dite « mature » qui trouve un second souffle en surfant sur un cycle technologique majeur. La trajectoire de croissance à trois chiffres suggère que ce repositionnement n'en est qu'à ses débuts.

UELes entreprises françaises et européennes (banques, assureurs, industriels) qui cherchent à internaliser leur infrastructure IA disposent d'un fournisseur supplémentaire capable de livrer des stacks clés en main, réduisant leur dépendance au cloud public.

InfrastructureOpinion
1 source
Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures
2The Information AI 

Le chatbot de DeepSeek tombe en panne pendant plus de 10 heures

Le chatbot de DeepSeek a subi une panne majeure de plus de dix heures dans la nuit de dimanche à lundi, rendant inaccessibles à la fois le site web et l'application mobile de la startup chinoise. Il s'agit de l'interruption de service la plus longue enregistrée depuis que le modèle phare de l'entreprise avait connu un succès viral début 2025. Le service a été rétabli lundi matin, sans que DeepSeek n'ait fourni d'explication publique sur les causes de l'incident. Une panne de cette durée sur un service d'IA aussi fréquenté soulève des questions sérieuses sur la fiabilité de l'infrastructure de DeepSeek. Pour les millions d'utilisateurs qui dépendent du chatbot comme outil de travail quotidien, dix heures d'indisponibilité représentent une interruption significative. L'absence de communication officielle aggrave la situation : les entreprises et développeurs intégrant DeepSeek dans leurs flux de travail se retrouvent sans visibilité sur les risques opérationnels. DeepSeek s'était imposé comme un concurrent inattendu face à OpenAI et Google début 2025, en proposant des performances comparables à des coûts bien inférieurs, ce qui avait provoqué un choc boursier aux États-Unis. Mais la montée en charge rapide d'un service qui n'avait pas été conçu pour une adoption mondiale de masse expose désormais ses faiblesses infrastructurelles. Cette panne survient alors que la fiabilité et la souveraineté des outils d'IA font l'objet d'un examen croissant, notamment en Europe où la provenance chinoise de DeepSeek alimente des débats sur la dépendance technologique.

UELa panne relance le débat en Europe sur la dépendance aux outils d'IA d'origine chinoise et les risques pour la souveraineté technologique.

💬 10 heures, aucune explication, aucun post-mortem. C'est ça qui me pose problème, pas la panne en elle-même (tout tombe, même OpenAI). Quand tu intègres un service dans ton workflow sans avoir aucune visibilité sur ce qui s'est passé, tu travailles à l'aveugle. Bon, c'est le signal pour tous ceux qui hésitaient encore sur la question souveraineté.

InfrastructureOpinion
1 source
Mistral AI lève 830 millions de dollars pour un centre de données IA
3AI Business 

Mistral AI lève 830 millions de dollars pour un centre de données IA

Mistral AI a annoncé avoir levé 830 millions de dollars pour financer la construction d'un centre de données dédié à l'intelligence artificielle, qui sera implanté en région parisienne. Cette infrastructure, alimentée par des milliers de puces Nvidia, représente l'un des investissements les plus importants jamais réalisés dans l'IA en Europe. La startup française, fondée en 2023, consolide ainsi sa position parmi les acteurs majeurs du secteur à l'échelle mondiale. Ce centre de calcul donnera à Mistral une capacité d'entraînement et d'inférence souveraine, réduisant sa dépendance aux infrastructures cloud américaines comme AWS ou Azure. Pour les entreprises et institutions européennes soucieuses de la localisation de leurs données, cette infrastructure sur sol français représente une alternative crédible aux géants américains. C'est aussi un signal fort sur la capacité de l'Europe à construire une filière IA complète, du modèle jusqu'au silicium. Mistral s'inscrit dans une course mondiale à la puissance de calcul où les États-Unis et la Chine investissent des dizaines de milliards. La France, qui a fait de l'IA souveraine une priorité industrielle, bénéficie ici d'un effet d'entraînement : après les annonces gouvernementales du plan France 2030, un acteur privé passe à l'acte à grande échelle. Les prochains mois diront si d'autres startups européennes suivront cette voie ou si Mistral restera une exception dans un paysage dominé par les hyperscalers américains.

UEMistral AI construit un centre de calcul souverain en région parisienne, offrant aux entreprises et institutions françaises et européennes une alternative locale aux hyperscalers américains pour l'hébergement et l'inférence IA sensibles.

💬 830 millions pour un datacenter, c'est le moment où Mistral arrête de jouer dans la cour des grands et devient un grand. Ce qui m'intéresse vraiment là-dedans, c'est la souveraineté d'inférence : des boîtes françaises qui pourront faire tourner des modèles sans que leurs données passent par Virginia ou Oregon. Reste à voir combien ça coûtera à l'usage.

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA
4Next INpact 

Mistral réunit 722 millions d’euros pour financer l’achat de 13 800 GPU NVIDIA

Mistral AI a finalisé lundi 30 mars un emprunt de 830 millions de dollars (722 millions d'euros) auprès d'un pool de sept banques pour équiper son datacenter de Bruyères-le-Châtel, au sud de Paris. Cet argent servira à acquérir 13 800 puces GB300 de NVIDIA, les processeurs de dernière génération destinés aux charges d'IA intensives. Une fois déployée, cette infrastructure portera la puissance informatique disponible pour la startup à 44 mégawatts. Le financement mobilise une majorité d'acteurs français — Bpifrance, BNP Paribas, Crédit Agricole CIB, HSBC, La Banque Postale et Natixis — ainsi que la banque japonaise MUFG (groupe Mitsubishi). La mise en service est annoncée pour le deuxième trimestre 2026. Cet investissement positionne Mistral comme le premier opérateur d'infrastructure IA souveraine en Europe capable d'offrir à ses clients institutionnels une puissance de calcul hors de toute juridiction extraterritoriale américaine. C'est l'enjeu central de l'offre Mistral Compute, lancée en juin 2025 et déjà contractualisée avec le ministère des Armées français en janvier 2026. Pour les gouvernements, administrations et grandes entreprises qui cherchent à déployer des modèles IA sans dépendre d'AWS, Azure ou Google Cloud, cette infrastructure représente une alternative concrète et européenne — un argument commercial de poids dans un contexte de tensions géopolitiques et de débats sur la souveraineté numérique. Le projet avait été annoncé en février 2025, avec Eclairion — spécialiste français des datacenters haute densité — comme partenaire de construction. À l'époque, l'intégrateur britannique devenu américain Fluidstack était également associé au projet, mais Bloomberg indique qu'il a depuis réorienté ses investissements vers les États-Unis, laissant le champ plus libre à une configuration franco-française. En décembre 2025, le CEO d'Eclairion évoquait encore un cluster de puces GB200 comme « la plus grosse machine d'IA de France » sur le point d'entrer en production pour Mistral — les cartes semblent avoir été rebattues depuis, avec une transition vers les GB300, génération supérieure. En parallèle, Mistral a annoncé en février 2026 un second investissement de 1,2 milliard d'euros dans un autre projet de datacenter, confirmant une stratégie d'expansion infrastructure qui va bien au-delà du seul développement de modèles de langage. La startup cofondée par Arthur Mensch se construit désormais en fournisseur de cloud souverain à part entière.

UEMistral installe à Bruyères-le-Châtel la première infrastructure IA souveraine d'Europe hors juridiction américaine, déjà contractualisée avec le ministère des Armées français, offrant aux institutions et entreprises européennes une alternative concrète aux hyperscalers américains.

💬 722 millions d'euros de dette pour acheter des GPU, c'est pas anodin comme pari. Bon, sur le papier le timing est parfait : les gouvernements européens cherchent désespérément une sortie des hyperscalers américains, et Mistral vient d'arriver avec 13 800 GB300 et un contrat Armées déjà dans la poche. Ce qui me frappe surtout, c'est le pivot : on parle plus d'une boîte de modèles, mais d'un vrai fournisseur de cloud souverain.

InfrastructureOpinion
1 source