Aller au contenu principal
NVIDIA a déjà investi 40 milliards de dollars dans des accords IA en 2026
InfrastructureLe Big Data1h

NVIDIA a déjà investi 40 milliards de dollars dans des accords IA en 2026

Résumé IASource uniqueImpact UE
Source originale ↗·

En à peine cinq mois depuis le début de l'année 2026, NVIDIA a engagé plus de 40 milliards de dollars dans des accords liés à l'intelligence artificielle. L'investissement le plus massif reste une mise de 30 milliards de dollars dans OpenAI, le créateur de ChatGPT. Le groupe a également conclu un accord pouvant atteindre 2,1 milliards de dollars avec IREN, opérateur de centres de données, pour déployer 5 gigawatts d'infrastructures NVIDIA DSX. Quelques jours plus tôt, c'est Corning qui annonçait un partenariat à hauteur de 3,2 milliards de dollars pour construire trois usines dédiées aux technologies optiques. En mars, NVIDIA avait aussi investi 2 milliards dans Marvell Technology, ainsi que dans les spécialistes de la photonique Lumentum et Coherent. Dans le cloud IA, le groupe soutient les néoclouds CoreWeave et Nebius Group avec 2 milliards chacun. Au total, Jensen Huang dirige une entreprise valorisée à environ 5 200 milliards de dollars, dont l'action a été multipliée par plus de 11 en quatre ans.

Cette stratégie va bien au-delà de la simple diversification financière : NVIDIA cherche à contrôler l'ensemble de la chaîne de valeur de l'IA, des puces jusqu'aux infrastructures qui les font tourner. En finançant les fournisseurs cloud, les opérateurs de data centers, les fabricants de composants optiques et les grandes startups IA, le groupe s'assure que chaque maillon de l'écosystème dépend de ses technologies. Jensen Huang l'a lui-même résumé en déclarant vouloir "soutenir tout le monde" plutôt que "désigner un seul gagnant", une posture qui lui permet de couvrir plusieurs scénarios concurrentiels à la fois. Le groupe a généré 97 milliards de dollars de free cash flow en 2025, ce qui rend ce rythme d'investissement soutenable à court terme.

Cette mécanique suscite néanmoins des inquiétudes croissantes à Wall Street. Plusieurs analystes pointent une logique circulaire potentiellement fragile : NVIDIA investit dans des entreprises qui achètent ses GPU pour construire leurs infrastructures, et leur fournit parfois directement des ressources de calcul. Certains observateurs comparent cette boucle à une bulle auto-entretenue. La domination de NVIDIA sur le marché des puces IA est le fruit de l'explosion de l'IA générative depuis 2022, mais la concurrence monte, avec AMD, Intel et les puces propriétaires développées par Google, Amazon et Microsoft. La capacité du groupe à maintenir sa position dominante tout en tissant ce réseau d'alliances financières déterminera si cette stratégie est un masterstroke industriel ou un risque systémique pour l'ensemble de l'écosystème IA mondial.

Impact France/UE

La stratégie d'intégration verticale de NVIDIA renforce sa domination sur l'ensemble de la chaîne IA mondiale, accentuant la dépendance des acteurs européens vis-à-vis des infrastructures et puces américaines.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Microsoft investit 10 milliards de dollars dans l'IA et la cybersécurité au Japon
1AI Business 

Microsoft investit 10 milliards de dollars dans l'IA et la cybersécurité au Japon

Microsoft a annoncé un investissement de 10 milliards de dollars au Japon, destiné au développement de l'intelligence artificielle et de la cybersécurité dans le pays. Cette enveloppe, l'une des plus importantes jamais engagées par le géant américain dans une seule région, sera déployée sur plusieurs années pour renforcer les infrastructures cloud, les centres de données et les capacités de défense numérique sur le territoire japonais. Cet investissement massif répond à une demande croissante des entreprises et administrations japonaises en matière de solutions IA souveraines et sécurisées. Pour le Japon, qui cherche activement à rattraper son retard numérique face à ses voisins asiatiques, l'arrivée de cette infrastructure représente un levier concret de modernisation industrielle et de renforcement de sa résilience face aux cybermenaces, en nette augmentation dans la région. Cet engagement s'inscrit dans une vague plus large d'investissements technologiques de Microsoft en Asie : l'entreprise a récemment annoncé des engagements similaires en Thaïlande et à Singapour. Cette stratégie régionale reflète la compétition acharnée entre les grands acteurs du cloud — Amazon, Google et Microsoft — pour s'imposer comme partenaires de confiance des gouvernements et grandes entreprises asiatiques à l'heure de l'accélération de l'IA.

InfrastructureActu
1 source
La Corée du Sud investit dans la startup locale qui défie Nvidia avec ses puces IA
2Le Big Data 

La Corée du Sud investit dans la startup locale qui défie Nvidia avec ses puces IA

Le gouvernement sud-coréen a annoncé mardi un investissement de 166 millions de dollars (250 milliards de wons) dans Rebellions, une startup spécialisée dans les puces d'intelligence artificielle fondée en 2020. Cet investissement, validé par la Commission des services financiers et le conseil consultatif des technologies stratégiques, est le premier déblocage concret du « Fonds national de croissance » dans le cadre du programme « K-Nvidia », co-piloté avec le ministère des Sciences et des TIC. Rebellions conçoit des unités de traitement neuronal (NPU) dédiées à l'inférence IA — la phase où les modèles répondent aux requêtes en temps réel. Son architecture, notamment la puce ATOM, se distingue par une consommation énergétique nettement inférieure aux solutions concurrentes. Fonctionnant sur un modèle « fabless », la société sous-traite la fabrication à des fonderies spécialisées. Depuis six mois, elle a levé 650 millions de dollars, portant son total à 850 millions et sa valorisation à plus de 2 milliards de dollars. Cet investissement public s'inscrit dans une stratégie de réduction de la dépendance aux infrastructures américaines, et plus précisément à Nvidia, qui domine aujourd'hui le marché des puces IA avec une emprise quasi monopolistique sur les data centers mondiaux. Cette concentration donne à un seul acteur un pouvoir considérable sur les prix, les délais de livraison et l'accès aux technologies critiques — une vulnérabilité que les États commencent à prendre très au sérieux. Rebellions cible déjà des clients cloud, des opérateurs télécoms et des gouvernements, et s'implante aux États-Unis, au Japon, au Moyen-Orient et à Taïwan, signalant des ambitions clairement internationales. Pour la Corée du Sud, soutenir ce type d'acteur, c'est aussi consolider une filière industrielle cohérente : le pays maîtrise déjà la mémoire vive avec Samsung et SK Hynix, mais reste exposé sur le segment des puces de calcul IA. La décision de Séoul intervient dans un contexte de course mondiale aux semi-conducteurs qui s'emballe. Les géants technologiques américains devraient investir collectivement entre 630 et 700 milliards de dollars en infrastructure IA cette année selon Reuters, tandis que la Chine, malgré les restrictions américaines à l'export, accélère le développement de ses propres filières. Les tensions géopolitiques entre Washington et Pékin ont transformé les semi-conducteurs en outil de pression diplomatique, rendant les chaînes d'approvisionnement imprévisibles. Dans ce contexte, le programme K-Nvidia représente le pari de Séoul de ne pas rater la fenêtre d'opportunité : construire un champion national de la puce IA avant que le marché soit structurellement verrouillé par les acteurs déjà en place.

UELa dépendance européenne aux puces Nvidia étant structurellement similaire à celle de la Corée du Sud, l'émergence de concurrents asiatiques comme Rebellions pourrait à terme diversifier les options d'approvisionnement pour les acteurs européens du cloud et de l'IA.

InfrastructureOpinion
1 source
3Le Big Data 

Nvidia vs Meta : qui contrôle vraiment l’IA en 2026 ?

En 2026, deux géants se livrent une bataille ouverte pour le contrôle de l'infrastructure de l'intelligence artificielle mondiale. D'un côté, Nvidia capte entre 80 et 90 % du marché des GPU pour centres de données, enchaînant les trimestres records grâce à une demande pour ses puces Blackwell qui dépasse toutes les prévisions. De l'autre, Meta, dirigé par Mark Zuckerberg, a décidé de rompre sa dépendance à ce fournisseur unique en annonçant jusqu'à 135 milliards de dollars d'investissements en capital pour 2026, dont un contrat historique de 6 gigawatts de puces AMD. Le marché mondial de l'IA générative devrait franchir 100 milliards de dollars d'ici fin 2026, porté par une adoption professionnelle massive : près de 80 % des entreprises prévoient d'intégrer des API d'IA ou de déployer des modèles personnalisés dans leurs processus. Les revenus issus des applications mobiles boostées à l'IA devraient doubler entre 2024 et 2026, avec une répartition géographique marquée : 37,3 milliards de dollars pour les États-Unis (+60 %), 14,7 milliards pour la Chine (+72 %), et une projection de 20 milliards pour la France à horizon 2030. L'enjeu dépasse la simple guerre commerciale entre deux entreprises. Ce que Meta cherche à construire, c'est une souveraineté technologique sur sa propre pile IA, de l'infrastructure physique jusqu'aux modèles. Tant que Nvidia reste le passage obligé pour tout acteur sérieux de l'IA, le géant de Menlo Park reste exposé à des pénuries, des hausses de prix et des délais de livraison qu'il ne contrôle pas. La diversification vers AMD n'est pas un choix technique anodin : c'est un signal politique adressé à toute l'industrie. En parallèle, les joueurs grand public risquent de subir les conséquences de cette course aux serveurs IA, Nvidia orientant clairement sa production vers les centres de données au détriment du segment gaming. La véritable forteresse de Nvidia ne réside pas dans ses puces mais dans son écosystème logiciel CUDA, standard industriel dominant depuis plus de quinze ans, que la concurrence peine à détrôner malgré des investissements considérables. L'architecture Rubin, attendue en succession des Blackwell, devrait creuser encore l'écart en termes de performances brutes. Meta n'est pas seul dans cette tentative de diversification : Google avec ses TPU, Amazon avec ses Trainium, et Microsoft via ses investissements dans OpenAI cherchent tous à réduire leur exposition à un seul fournisseur. La question qui structure désormais toute la filière est celle des infrastructures : les réseaux électriques, les capacités de refroidissement et les chaînes d'approvisionnement en semi-conducteurs peuvent-ils absorber une demande qui double tous les dix-huit mois ? C'est sur ce terrain physique, autant que logiciel, que se jouera la prochaine phase de la course à l'IA.

UELes entreprises européennes restent structurellement dépendantes de l'écosystème Nvidia/CUDA pour leurs projets IA, rendant leur accès à l'infrastructure coûteux et soumis aux arbitrages de production d'acteurs hors UE.

InfrastructureOpinion
1 source
OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital
4The Information AI 

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital

OpenAI a conclu un accord majeur avec Cerebras Systems, le fabricant de puces AI concurrent de Nvidia, pour un montant total dépassant 20 milliards de dollars sur trois ans. Selon plusieurs sources proches du dossier, cette somme, deux fois supérieure aux chiffres précédemment évoqués, servira à financer l'utilisation de serveurs équipés des puces Cerebras. En parallèle, OpenAI s'est engagé à injecter environ 1 milliard de dollars supplémentaires pour financer la construction de centres de données destinés à héberger ses produits d'intelligence artificielle. En contrepartie de ces dépenses, OpenAI recevra des bons de souscription donnant accès à une participation minoritaire dans Cerebras, participation qui pourrait croître proportionnellement aux sommes dépensées. Cet accord constitue une tentative directe de réduire la dépendance d'OpenAI envers Nvidia, dont les puces H100 et H200 dominent le marché de l'infrastructure IA. Pour OpenAI, l'enjeu est double : diversifier ses fournisseurs de calcul tout en pesant sur les coûts d'entraînement et d'inférence de ses modèles, qui représentent plusieurs milliards de dollars par an. Cerebras, connue pour ses puces WSE (Wafer Scale Engine) aux performances élevées sur certaines charges de travail, tentait de lancer son introduction en bourse depuis 2024, un processus retardé notamment par des questions réglementaires liées à ses investisseurs du Moyen-Orient. Cet accord avec OpenAI change radicalement sa trajectoire et sa valorisation potentielle. Il s'inscrit dans un mouvement plus large de l'industrie tech visant à diversifier l'approvisionnement en silicium face à la pénurie et au pouvoir de marché de Nvidia, tandis que des acteurs comme AMD, Intel et des startups comme Groq cherchent également à s'imposer comme alternatives crédibles.

💬 20 milliards sur Cerebras, c'est pas une commande de puces, c'est un message envoyé à Jensen Huang. OpenAI commence enfin à construire un levier de négociation réel, parce qu'être client captif de Nvidia à cette échelle, c'est juste intenable sur la durée. Reste à voir si les WSE tiennent la charge en prod sur des workloads variés, parce que Cerebras performe bien dans certains cas mais c'est pas encore la puce universelle qu'on nous vend.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour