Aller au contenu principal
InfrastructureVentureBeat AI1h

L'action Cerebras double presque le premier jour, valorisant le fabricant de puces IA à 100 milliards de dollars

Résumé IASource uniqueImpact UE
Source originale ↗·

Cerebras Systems, le fabricant de puces basé dans la Silicon Valley, a fait une entrée fracassante au Nasdaq le 14 mai 2026 : l'action a ouvert à 350 dollars, soit presque le double du prix d'introduction fixé à 185 dollars, propulsant la capitalisation boursière de la société au-delà des 100 milliards de dollars dès les premières heures de cotation. L'entreprise a levé 5,55 milliards de dollars en vendant 30 millions d'actions, ce qui en fait la plus grande introduction en bourse technologique américaine depuis Uber en 2019. La demande des investisseurs a littéralement submergé les attentes initiales : Cerebras avait d'abord fixé une fourchette cible de 115 à 125 dollars, l'avait relevée à 150-160 dollars face à l'engouement, avant de fixer le prix final encore au-dessus de cette bande révisée. La société, dont le chiffre d'affaires a progressé de 76 % pour atteindre 510 millions de dollars en 2025, a annoncé son intention d'investir ces nouveaux capitaux dans l'expansion de son infrastructure cloud d'inférence.

Ce succès boursier repose sur une architecture radicalement différente de celle de Nvidia. Le Wafer-Scale Engine WSE-3 de Cerebras est un processeur unique qui occupe un wafer de silicium entier, le disque de la taille d'une assiette à partir duquel sont normalement découpées des dizaines de puces classiques. Avec 4 000 milliards de transistors, 900 000 cœurs de calcul et 44 gigaoctets de mémoire embarquée, il est 58 fois plus grand que le B200 de Nvidia et offre 2 625 fois plus de bande passante mémoire. Cet avantage est décisif pour l'inférence d'IA, le processus qui consiste à faire tourner un modèle entraîné pour générer des réponses : chaque token produit nécessite de déplacer l'intégralité des poids du modèle entre mémoire et calcul, une opération strictement séquentielle où la bande passante est le facteur limitant. Cerebras revendique des vitesses d'inférence jusqu'à 15 fois supérieures aux solutions GPU concurrentes sur modèles open source, un chiffre confirmé par le cabinet d'analyse indépendant Artificial Analysis.

Le parcours de Cerebras jusqu'à cette cotation a été tout sauf linéaire. Fondée en 2015 sur le pari que les charges de travail de l'IA seraient fondamentalement contraintes par les communications entre mémoire et calcul, la société a passé des années à résoudre un problème que l'industrie des semi-conducteurs avait tenté et abandonné à plusieurs reprises sur 75 ans d'histoire. Cerebras avait une première fois déposé son dossier d'introduction en bourse en septembre 2024, avant de se retirer face aux questions des régulateurs sur sa dépendance quasi totale à un seul client aux Émirats arabes unis. Le redépôt d'avril 2026 présentait un profil radicalement différent : des partenariats avec OpenAI et Amazon Web Services, un service d'inférence cloud en forte croissance, et une base de revenus diversifiée. La capitalisation atteinte dès le premier jour place désormais Cerebras parmi les fabricants de semi-conducteurs les plus valorisés au monde, dans un secteur où Nvidia règne encore en maître incontesté.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital
1The Information AI 

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital

OpenAI a conclu un accord majeur avec Cerebras Systems, le fabricant de puces AI concurrent de Nvidia, pour un montant total dépassant 20 milliards de dollars sur trois ans. Selon plusieurs sources proches du dossier, cette somme, deux fois supérieure aux chiffres précédemment évoqués, servira à financer l'utilisation de serveurs équipés des puces Cerebras. En parallèle, OpenAI s'est engagé à injecter environ 1 milliard de dollars supplémentaires pour financer la construction de centres de données destinés à héberger ses produits d'intelligence artificielle. En contrepartie de ces dépenses, OpenAI recevra des bons de souscription donnant accès à une participation minoritaire dans Cerebras, participation qui pourrait croître proportionnellement aux sommes dépensées. Cet accord constitue une tentative directe de réduire la dépendance d'OpenAI envers Nvidia, dont les puces H100 et H200 dominent le marché de l'infrastructure IA. Pour OpenAI, l'enjeu est double : diversifier ses fournisseurs de calcul tout en pesant sur les coûts d'entraînement et d'inférence de ses modèles, qui représentent plusieurs milliards de dollars par an. Cerebras, connue pour ses puces WSE (Wafer Scale Engine) aux performances élevées sur certaines charges de travail, tentait de lancer son introduction en bourse depuis 2024, un processus retardé notamment par des questions réglementaires liées à ses investisseurs du Moyen-Orient. Cet accord avec OpenAI change radicalement sa trajectoire et sa valorisation potentielle. Il s'inscrit dans un mouvement plus large de l'industrie tech visant à diversifier l'approvisionnement en silicium face à la pénurie et au pouvoir de marché de Nvidia, tandis que des acteurs comme AMD, Intel et des startups comme Groq cherchent également à s'imposer comme alternatives crédibles.

💬 20 milliards sur Cerebras, c'est pas une commande de puces, c'est un message envoyé à Jensen Huang. OpenAI commence enfin à construire un levier de négociation réel, parce qu'être client captif de Nvidia à cette échelle, c'est juste intenable sur la durée. Reste à voir si les WSE tiennent la charge en prod sur des workloads variés, parce que Cerebras performe bien dans certains cas mais c'est pas encore la puce universelle qu'on nous vend.

InfrastructureActu
1 source
5 % d'utilisation GPU : le problème d'infrastructure IA à 401 milliards de dollars que les entreprises ne peuvent plus ignorer
2VentureBeat AI 

5 % d'utilisation GPU : le problème d'infrastructure IA à 401 milliards de dollars que les entreprises ne peuvent plus ignorer

Les entreprises ont dépensé des milliards pour sécuriser des GPU à tout prix, et la facture est désormais présentée. Selon Gartner, l'infrastructure IA représente 401 milliards de dollars de nouvelles dépenses en 2025, mais des audits terrain révèlent une réalité bien plus sombre : le taux d'utilisation moyen des GPU en entreprise stagne à 5 %. Pendant deux ans, la panique du « GPU scramble » a poussé DSI et directions financières à constituer des réserves de capacité sous des cycles d'amortissement de trois à cinq ans. Ces actifs sont désormais des coûts fixes inscrits aux bilans, indépendamment de leur usage effectif. Les chiffres du Q1 2026 confirment le basculement : dans le baromètre de VentureBeat, le critère « accès aux GPU » est passé de 20,8 % à 15,4 % en un seul trimestre comme moteur principal des décisions d'achat, tandis que le coût par inférence et le TCO (coût total de possession) bondissaient de 34 % à 41 %, dépassant la performance pure comme critère dominant. À 5 % d'utilisation, l'arithmétique est brutale : pour chaque dollar investi en silicium, 95 centimes partent directement dans la marge des fournisseurs cloud. Dans n'importe quel autre département, un taux de gaspillage de 95 % serait un motif de licenciement ; dans l'infrastructure IA, on appelait ça de la « préparation ». Les grands groupes comme Intuit, Mastercard ou Pfizer, qui bénéficiaient de relations privilégiées avec AWS, Azure et GCP pour sécuriser des réservations de capacité, se sont retrouvés riches en GPU mais pauvres en production : des équipes internes paralysées par la gouvernance des données, la gravité des données et une immaturité architecturale persistante ont empêché toute valorisation réelle de ces ressources. Le discours dominant sur la rareté du silicium a servi d'écran commode pour masquer cette inefficacité structurelle. Ce virage marque la fin de l'ère du chèque en blanc. Le passage à une tarification à l'usage en 2026 transforme les architectures héritées des phases pilotes, pensées avec des tokens en coûts fixes, en véritables passifs financiers. Les agents en contexte long et les pipelines de récupération complexes, construits quand les tokens étaient un coût noyé dans des licences forfaitaires, deviennent intenables sous une facturation mesuréé. L'inférence n'est plus un projet tactique : c'est un modèle économique stratégique dont les unités économiques sont, pour la plupart des entreprises, encore insoutenables. La question n'est plus de savoir si les investissements passés étaient justifiés, mais comment extraire un retour mesurable d'une infrastructure déjà déployée avant que les cycles d'amortissement ne l'emportent.

UELes entreprises européennes investies en infrastructure GPU sont exposées au même risque de sous-utilisation à 5 %, avec des cycles d'amortissement sur 3-5 ans qui transforment ces actifs en passifs financiers au moment où le marché bascule vers une tarification à l'usage.

💬 5 % d'utilisation, c'est le genre de stat qui ferait renvoyer n'importe quel responsable infra dans un département classique. La panique du GPU scramble a servi de couverture : on achetait du silicium pour ne pas rater le train, sans se demander si les équipes data étaient capables d'en faire quelque chose. Le basculement vers le pay-as-you-go va transformer ces réserves en passifs, et ça va faire des dégâts.

InfrastructureOpinion
1 source
Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?
3Le Big Data 

Meta parie 21 milliards sur CoreWeave : La nouvelle référence de la valorisation IA ?

Meta a annoncé le 9 avril 2026 un nouvel accord de 21 milliards de dollars avec CoreWeave, portant l'engagement total du groupe envers ce fournisseur de cloud GPU à plus de 35 milliards de dollars. Cet accord court jusqu'en décembre 2032 et couvre principalement des capacités de calcul dédiées à l'inférence, c'est-à-dire le traitement en temps réel des requêtes IA dans les applications grand public. L'action CoreWeave ($CRWV) a bondi d'environ 8 % à l'annonce de la nouvelle. Le partenariat inclut également un accès anticipé à la plateforme NVIDIA Vera Rubin, la prochaine génération de puces IA qui succède à l'architecture Blackwell, déployée sur plusieurs sites avant sa disponibilité commerciale large. Cet accord illustre un changement de paradigme dans la compétition en intelligence artificielle : l'infrastructure compute est désormais aussi stratégique que les modèles eux-mêmes. Les modèles Llama de Meta sont intégrés dans Facebook, Instagram, WhatsApp et Messenger, soit plusieurs milliards d'utilisateurs actifs. À cette échelle, chaque requête mobilise de la puissance de calcul, et la latence comme les coûts deviennent des variables critiques. CoreWeave, spécialisé dans les clusters GPU haute densité, peut déployer des capacités beaucoup plus rapidement qu'un hyperscaler classique en phase de construction, ce qui en fait un relais opérationnel immédiatement exploitable. L'accès anticipé aux puces Vera Rubin donne par ailleurs à Meta un avantage compétitif concret : optimiser ses modèles sur une architecture plus performante avant que ses concurrents ne puissent faire de même. Meta n'abandonne pas pour autant ses investissements internes. Le groupe prévoit entre 115 et 135 milliards de dollars de dépenses d'investissement pour 2026, dont un centre de données estimé à 10 milliards de dollars au Texas. Mais ces infrastructures propres prennent des années à construire, et l'urgence concurrentielle ne permet pas d'attendre. La stratégie adoptée est donc hybride : construire en interne pour le long terme, louer chez CoreWeave pour répondre aux besoins immédiats. Mike Intrator, PDG de CoreWeave, a résumé cette logique en évoquant un risque opérationnel trop élevé pour dépendre d'une seule approche. Ce modèle de redondance computing, mi-propriétaire mi-externalisé, pourrait rapidement devenir la norme dans l'industrie, à mesure que Google, Microsoft et Amazon font face aux mêmes tensions sur les GPU et aux mêmes exigences de rapidité d'exécution.

UECet accord renforce la concentration des ressources GPU chez les acteurs américains, réduisant indirectement la capacité des entreprises européennes à accéder à des infrastructures IA compétitives à coût et délai raisonnables.

InfrastructureOpinion
1 source
☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France
4Next INpact 

☕️ SoftBank investirait jusqu’à 100 milliards de dollars dans des infrastructures IA en France

SoftBank serait sur le point d'annoncer un investissement pouvant atteindre 100 milliards de dollars pour déployer des centres de données dédiés à l'intelligence artificielle en France. Selon Bloomberg, le projet a germé lors d'une rencontre entre Masayoshi Son, PDG du conglomérat japonais, et Emmanuel Macron, qui s'était rendu au Japon fin mars 2026 pour une tournée de séduction auprès des grandes puissances économiques de l'archipel. Le président français aurait directement proposé à Son d'installer des infrastructures IA en France, une démarche inhabituelle pour l'investisseur, plus souvent approché par des dirigeants d'entreprise que par des chefs d'État. L'annonce officielle pourrait intervenir lors du sommet Choose France, prévu le 19 mai. Le montant réel reste incertain et pourrait s'avérer bien inférieur aux 100 milliards évoqués en interne. Si l'investissement se concrétise même partiellement, il constituerait un signal fort pour le positionnement de la France comme hub européen de l'IA. Paris mise sur un argument concurrentiel clé : l'énergie nucléaire, qui permet d'alimenter les centres de données avec "l'électricité la plus décarbonée d'Europe", selon les termes de Macron lui-même. Dans un contexte où les besoins énergétiques des datacenters explosent, cet avantage structurel pourrait peser lourd face à des alternatives moins stables ou plus carbonées. Pour les acteurs tech cherchant à construire des infrastructures à grande échelle en Europe, la France deviendrait une option sérieuse. Cet éventuel engagement s'inscrit dans une dynamique d'investissements massifs dans l'IA mondiale. SoftBank est déjà engagé à hauteur de plus de 60 milliards de dollars dans OpenAI, dont il détient 13 % du capital, et co-finance l'initiative Stargate aux États-Unis aux côtés d'OpenAI, Oracle et du fonds émirati MGX, pour un total annoncé de 500 milliards. En parallèle, Microsoft, Meta, Amazon et Alphabet ont promis plus de 700 milliards de dépenses combinées pour la seule année 2026. Masayoshi Son est réputé pour ses annonces spectaculaires dont la concrétisation s'étale sur des années, voire n'aboutit jamais. Du côté français, Macron avait déjà annoncé en février 2025, lors du Sommet pour l'action sur l'IA à Paris, 109 milliards d'euros d'investissements sur plusieurs années, présentés comme l'équivalent français de Stargate. L'éventuelle entrée de SoftBank viendrait compléter cet édifice, mais les détails du projet restent flous et la portée de l'annonce finale pourrait encore évoluer significativement d'ici le 19 mai.

UESi l'investissement se concrétise même partiellement, la France se positionnerait comme le principal hub européen de l'IA, attirant des dizaines de milliards de dollars en centres de données et consolidant son avantage compétitif grâce à son électricité nucléaire décarbonée.

💬 100 milliards, c'est le chiffre qu'on sort pour les journalistes, mais avec Masa Son, t'as appris à diviser par 3 avant de célébrer. Ce qui tient vraiment debout dans ce dossier, c'est l'argument nucléaire : la France a une carte différenciante face à ses voisins européens, et là c'est pas du flan. Reste à voir ce que donnera le 19 mai.

InfrastructureOpinion
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour