
Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?
Meta a annoncé le 9 avril 2026 un nouvel accord de 21 milliards de dollars avec CoreWeave, portant l'engagement total du groupe envers ce fournisseur de cloud GPU à plus de 35 milliards de dollars. Cet accord court jusqu'en décembre 2032 et couvre principalement des capacités de calcul dédiées à l'inférence, c'est-à-dire le traitement en temps réel des requêtes IA dans les applications grand public. L'action CoreWeave ($CRWV) a bondi d'environ 8 % à l'annonce de la nouvelle. Le partenariat inclut également un accès anticipé à la plateforme NVIDIA Vera Rubin, la prochaine génération de puces IA qui succède à l'architecture Blackwell, déployée sur plusieurs sites avant sa disponibilité commerciale large.
Cet accord illustre un changement de paradigme dans la compétition en intelligence artificielle : l'infrastructure compute est désormais aussi stratégique que les modèles eux-mêmes. Les modèles Llama de Meta sont intégrés dans Facebook, Instagram, WhatsApp et Messenger, soit plusieurs milliards d'utilisateurs actifs. À cette échelle, chaque requête mobilise de la puissance de calcul, et la latence comme les coûts deviennent des variables critiques. CoreWeave, spécialisé dans les clusters GPU haute densité, peut déployer des capacités beaucoup plus rapidement qu'un hyperscaler classique en phase de construction, ce qui en fait un relais opérationnel immédiatement exploitable. L'accès anticipé aux puces Vera Rubin donne par ailleurs à Meta un avantage compétitif concret : optimiser ses modèles sur une architecture plus performante avant que ses concurrents ne puissent faire de même.
Meta n'abandonne pas pour autant ses investissements internes. Le groupe prévoit entre 115 et 135 milliards de dollars de dépenses d'investissement pour 2026, dont un centre de données estimé à 10 milliards de dollars au Texas. Mais ces infrastructures propres prennent des années à construire, et l'urgence concurrentielle ne permet pas d'attendre. La stratégie adoptée est donc hybride : construire en interne pour le long terme, louer chez CoreWeave pour répondre aux besoins immédiats. Mike Intrator, PDG de CoreWeave, a résumé cette logique en évoquant un risque opérationnel trop élevé pour dépendre d'une seule approche. Ce modèle de redondance computing, mi-propriétaire mi-externalisé, pourrait rapidement devenir la norme dans l'industrie, à mesure que Google, Microsoft et Amazon font face aux mêmes tensions sur les GPU et aux mêmes exigences de rapidité d'exécution.
Cet accord renforce la concentration des ressources GPU chez les acteurs américains, réduisant indirectement la capacité des entreprises européennes à accéder à des infrastructures IA compétitives à coût et délai raisonnables.



