Aller au contenu principal
Nvidia s’allie à IREN pour déployer 5 GW d’infrastructures IA
InfrastructureLe Big Data16h

Nvidia s’allie à IREN pour déployer 5 GW d’infrastructures IA

Résumé IASource uniqueImpact UE
Source originale ↗·

Nvidia et IREN ont annoncé le 7 mai 2026 un partenariat stratégique visant à déployer jusqu'à 5 gigawatts d'infrastructures IA à travers le réseau mondial de centres de données d'IREN. L'accord s'appuie sur l'architecture DSX de Nvidia, conçue pour industrialiser le déploiement de clusters GPU à très grande échelle. Un contrat de 3,4 milliards de dollars a également été signé dans ce cadre, par lequel IREN fournira des services cloud d'infrastructure IA pour les besoins internes de Nvidia. Le campus texan de Sweetwater, site de 2 gigawatts présenté comme le futur projet phare de ce déploiement, concentrera une grande partie des investissements initiaux. Dans cette architecture, Nvidia apporte la puissance de calcul accélérée et l'expertise en infrastructure, tandis qu'IREN prend en charge l'énergie, le foncier, l'exploitation des data centers et le déploiement physique des clusters GPU.

Ce partenariat illustre un basculement profond dans la façon dont se joue la compétition dans l'IA. Pendant des années, l'avantage concurrentiel reposait avant tout sur les performances des modèles et l'accès aux puces. Désormais, la capacité à construire rapidement des infrastructures capables d'alimenter en continu l'entraînement et l'inférence de modèles devient tout aussi décisive. Les cibles prioritaires de ce projet sont les entreprises natives de l'IA, les startups spécialisées et les grands groupes à fort besoin de calcul. Jensen Huang, fondateur et PDG de Nvidia, résume cette vision en affirmant que les "AI factories deviennent une infrastructure fondamentale comparable aux réseaux électriques ou aux télécommunications". Cette déclaration marque le repositionnement explicite de Nvidia : l'entreprise ne vend plus uniquement des GPU, mais une offre complète d'infrastructure IA à l'échelle industrielle.

Ce mouvement s'inscrit dans une dynamique plus large où la question énergétique devient aussi stratégique que l'accès aux semi-conducteurs. Le Texas attire une part croissante des investissements dans l'IA et les data centers grâce à son accès à l'énergie, ses disponibilités foncières et ses infrastructures industrielles. IREN occupe une position particulière sur ce marché avec un modèle verticalement intégré qui combine centres de données, accès aux réseaux électriques et clusters GPU, le tout implanté dans des régions riches en énergies renouvelables en Amérique du Nord. Le partenariat avec Nvidia lui confère une crédibilité et une visibilité sans précédent pour capter les besoins colossaux en infrastructure que génère la généralisation de l'IA générative dans les entreprises. Les 5 GW annoncés seront déployés progressivement, ce qui laisse entendre que d'autres sites viendront compléter Sweetwater dans les prochaines années.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

NVIDIA et Marvell s’unissent pour révolutionner les infrastructures IA
1Le Big Data 

NVIDIA et Marvell s’unissent pour révolutionner les infrastructures IA

NVIDIA et Marvell Technology ont annoncé un partenariat stratégique majeur, scellé par un investissement de 2 milliards de dollars de NVIDIA dans Marvell. L'accord s'articule autour de NVLink Fusion, une plateforme modulaire permettant de construire des infrastructures d'IA semi-personnalisées. Concrètement, Marvell apportera des XPU (processeurs accélérés sur mesure) et un réseau évolutif compatible, tandis que NVIDIA fournit l'ensemble de son arsenal matériel : processeurs Vera, cartes réseau ConnectX, DPU BlueField, interconnexion NVLink, commutateurs Spectrum-X et capacité de calcul déployable en rack. Le titre Marvell a bondi de 11 % dès l'annonce mardi, signe que les marchés ont immédiatement perçu la portée de l'accord. Le partenariat couvre également les réseaux télécoms, via NVIDIA Aerial AI-RAN, avec des ambitions sur la 5G et la future 6G, ainsi que sur des technologies d'interconnexion optique et de photonique sur silicium pour améliorer les performances et réduire la consommation énergétique. Pour les entreprises qui développent leurs propres puces d'accélération, NVLink Fusion ouvre la voie à des architectures hybrides entièrement compatibles avec l'écosystème NVIDIA — GPU, réseau et stockage compris. C'est un changement structurel : jusqu'ici, intégrer des composants tiers dans une infrastructure NVIDIA relevait du casse-tête d'interopérabilité. Désormais, les hyperscalers, opérateurs télécom et acteurs du cloud pourront combiner des XPU Marvell avec la stack NVIDIA sans friction. Pour les utilisateurs finaux, l'impact est indirect mais réel : des modèles d'IA générative plus complexes pourront tourner à moindre latence, ce qui se traduit par des services de recommandation, de création de contenu ou de simulation plus réactifs. Dans les télécoms, l'alliance prépare le terrain pour des réseaux 5G/6G capables de supporter des usages exigeants comme la télémédecine en temps réel ou les véhicules autonomes. Ce rapprochement s'inscrit dans un contexte de demande explosive en capacité de calcul, portée par la généralisation de l'IA générative et l'explosion des volumes de données. Jensen Huang, PDG de NVIDIA, parle lui-même d'une "ère de supercalcul" en cours d'avènement. Face à cette pression, les grandes entreprises technologiques mondiales s'engagent dans une course à la construction de centres de calcul dédiés, et NVIDIA cherche à s'imposer comme la colonne vertébrale incontournable de ces infrastructures. Marvell, de son côté, se repositionne comme fournisseur clé de silicium personnalisé pour l'IA — un marché en pleine effervescence où Amazon, Google et Microsoft développent déjà leurs propres puces. L'investissement de 2 milliards de dollars de NVIDIA dans Marvell est autant un signal industriel qu'une manœuvre défensive : consolider l'écosystème avant que les alternatives ne s'imposent.

UELes opérateurs télécom et fournisseurs cloud européens pourront intégrer des architectures hybrides XPU Marvell / stack NVIDIA sans friction, accélérant leurs déploiements 5G/6G et d'IA générative.

💬 NVIDIA ne se contente plus de vendre des GPU, il construit le système nerveux de toute l'infrastructure IA. NVLink Fusion, c'est le genre de coup qu'on voit venir mais dont on mesure mal l'ampleur : permettre à Marvell (et demain à d'autres) de brancher leurs puces custom directement dans l'écosystème NVIDIA, c'est verrouiller le marché de façon beaucoup plus subtile qu'un simple rachat. Les 2 milliards d'investissement, c'est pas de la philanthropie, c'est de la consolidation défensive avant qu'AMD ou les hyperscalers in-house ne s'imposent.

InfrastructureOpinion
1 source
L'IA a besoin d'une infrastructure de données solide pour créer de la valeur
2MIT Technology Review 

L'IA a besoin d'une infrastructure de données solide pour créer de la valeur

L'intelligence artificielle s'installe durablement dans les entreprises : selon une enquête récente, la moitié des organisations utilisaient déjà l'IA dans au moins trois fonctions métier d'ici fin 2025, que ce soit en finance, dans les chaînes d'approvisionnement, les ressources humaines ou le service client. Mais à mesure que ces systèmes deviennent centraux dans les opérations quotidiennes, un obstacle inattendu émerge. Ce n'est ni la puissance de calcul ni les performances des modèles qui freinent le déploiement, mais la qualité et surtout le contexte des données sur lesquelles reposent ces systèmes. Irfan Khan, président et directeur produit de SAP Data & Analytics, résume le problème : "L'IA produit des résultats très rapidement, mais sans contexte elle ne peut pas exercer un bon jugement -- et c'est le jugement qui crée de la valeur pour l'entreprise. La vitesse sans jugement ne sert à rien, elle peut même nuire." L'enjeu est concret et mesurable. Deux entreprises qui utilisent l'IA pour gérer des ruptures dans leur chaîne d'approvisionnement peuvent traiter les mêmes données -- niveaux de stock, délais, scores fournisseurs -- mais arriver à des décisions radicalement différentes. Celle qui enrichit ses données avec du contexte métier (quels clients sont stratégiques, quels compromis sont acceptables en cas de pénurie, quelles obligations contractuelles s'appliquent) prendra des décisions alignées sur ses priorités réelles. L'autre produira des réponses techniquement correctes mais opérationnellement défaillantes. Les systèmes d'IA n'affichent pas seulement de l'information, ils agissent dessus -- ce qui rend toute erreur de contexte potentiellement coûteuse. Historiquement, des experts humains compensaient ce manque de contexte en interprétant les données brutes. Avec l'automatisation croissante, ce filet de sécurité disparaît. La réponse architecturale qui s'impose est celle du "data fabric", une couche d'infrastructure qui ne se contente pas d'intégrer les données mais préserve leur signification à travers les systèmes, les applications et les environnements cloud. Pendant deux décennies, les entreprises ont massivement investi dans des entrepôts de données centralisés -- utiles pour les rapports et les tableaux de bord, mais appauvrissants pour le sens métier des données. Le mouvement actuel est inverse : il s'agit de connecter les informations là où elles se trouvent tout en conservant les métadonnées, les politiques et les relations qui décrivent comment l'entreprise fonctionne réellement. SAP, qui positionne ses solutions d'analytique autour de cette vision, n'est pas seul sur ce terrain : toute l'industrie des données se repositionne pour répondre à une exigence nouvelle -- celle d'une IA qui ne se contente pas d'aller vite, mais qui va dans la bonne direction.

UESAP étant une entreprise allemande leader du logiciel d'entreprise, son positionnement sur le 'data fabric' influence directement les choix d'infrastructure des grandes organisations européennes qui déploient l'IA.

InfrastructureActu
1 source
3Le Big Data 

Pourquoi les infrastructures cloud dédiées à l’IA deviennent un enjeu stratégique en Europe ?

Le groupe SWI (Stoneweg Icona Group) a annoncé l'acquisition d'une participation majoritaire dans Polarise, une société allemande spécialisée dans les infrastructures cloud pour l'intelligence artificielle, valorisant cette dernière à 500 millions d'euros. En parallèle, SWI s'engage à injecter un milliard d'euros supplémentaires pour accélérer le développement de ce qui se veut le premier opérateur d'infrastructures numériques souveraines à l'échelle européenne. Polarise dispose déjà de 14 centres de données opérationnels à travers l'Europe, d'une capacité totale de 2,3 GW via sa plateforme AiOnX, et d'un partenariat privilégié avec Nvidia lui donnant accès direct aux GPU les plus puissants du marché. La société a également lancé la première "AI Factory" d'Allemagne en collaboration avec Deutsche Telekom, positionnant d'emblée ce rapprochement comme une initiative industrielle de premier plan. Max-Hervé George, fondateur et PDG de SWI Group, pilote cette stratégie d'intégration verticale, couvrant la chaîne complète du foncier aux logiciels cloud. L'enjeu est considérable : les entreprises et gouvernements européens cherchent à réduire leur dépendance aux hyperscalers américains, AWS, Azure, Google Cloud, pour les charges de travail les plus sensibles. L'acquisition permet à SWI de proposer un modèle "GPU-as-a-Service" permettant aux organisations de louer de la puissance de calcul GPU à la demande, sans investissement lourd en matériel, via une infrastructure localisée en Europe et soumise au droit européen. Pour les industries de pointe en Allemagne, en France ou en Norvège, cela représente un accès à des capacités de calcul haute performance sans compromis sur la souveraineté des données. Ce modèle favorise également une innovation plus rapide pour les startups et PME qui n'ont pas les moyens de construire leur propre infrastructure. Cette opération s'inscrit dans un mouvement plus large de structuration de la filière IA européenne face à la domination des géants américains et à la montée en puissance des acteurs chinois. L'Union européenne multiplie depuis plusieurs années les appels à bâtir une capacité numérique autonome, notamment à travers le règlement sur l'IA et les investissements du programme Horizon. La rareté des GPU Nvidia, dont Polarise est revendeur agréé, confère à cette alliance un avantage concurrentiel structurel dans un marché sous tension. Les prochaines étapes visent l'extension géographique vers l'Allemagne et la Norvège, deux pays disposant d'une énergie abondante et bon marché indispensable pour alimenter ces infrastructures énergivores. Si SWI tient ses engagements d'investissement, le groupe pourrait devenir un acteur de référence pour les contrats publics et les grandes entreprises cherchant une alternative crédible aux solutions extraeuropéennes.

UEL'acquisition crée un opérateur cloud souverain européen offrant aux entreprises et gouvernements de l'UE une alternative concrète aux hyperscalers américains pour leurs charges de travail sensibles, avec accès aux GPU Nvidia via une infrastructure soumise au droit européen.

InfrastructureOpinion
1 source
Oracle licencie des milliers d'employés pour financer ses investissements massifs en infrastructure IA
4The Decoder 

Oracle licencie des milliers d'employés pour financer ses investissements massifs en infrastructure IA

Oracle a procédé à des licenciements massifs touchant plusieurs milliers d'employés, selon des informations rapportées par The Decoder. Ces suppressions de postes s'inscrivent dans une stratégie de réduction des coûts opérationnels destinée à financer un programme colossal de construction de centres de données dédiés à l'intelligence artificielle. L'entreprise, dont le cours de bourse a chuté de 25 % ces derniers mois, accumule par ailleurs une dette croissante liée à ces investissements d'infrastructure. Pour justifier cette mise à l'échelle forcée, Oracle s'appuie sur un carnet de commandes impressionnant, dont un contrat avec OpenAI valorisé à 455 milliards de dollars. Ces engagements contractuels sont présentés en interne comme une garantie de revenus futurs suffisamment solides pour absorber les coûts sociaux et financiers de la transformation. Mais la concrétisation de ces commandes reste incertaine : dans un secteur où les annonces de partenariats précèdent souvent de loin les paiements effectifs, la prudence s'impose. Oracle se positionne ainsi dans la course aux infrastructures IA aux côtés d'Amazon, Microsoft et Google, tous engagés dans une expansion agressive de leurs capacités de calcul. La décision de sacrifier des emplois pour accélérer cette transition illustre une tendance de fond dans la tech : les grandes entreprises réorientent leurs ressources humaines et financières vers l'IA à marche forcée, quitte à prendre des risques considérables si la demande ne suit pas au rythme escompté.

UEOracle étant présent en Europe avec plusieurs milliers d'employés, ces suppressions de postes massives pourraient toucher ses filiales européennes, bien que l'ampleur locale reste indéterminée.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour