Aller au contenu principal
InfrastructureThe Decoder1h

Broadcom refuserait de fabriquer la puce personnalisée d'OpenAI si Microsoft n'en achète pas 40 %

Résumé IASource uniqueImpact UE
Source originale ↗·

Le projet de puce IA sur mesure développé par OpenAI en collaboration avec Broadcom se heurte à un obstacle financier majeur. Selon des informations rapportées par The Decoder, Broadcom refuse de financer la production de ces processeurs à moins que Microsoft ne s'engage à en acheter 40 % du volume total. Or, Microsoft n'a toujours pas donné son accord. La première phase du projet représente à elle seule un coût estimé à 18 milliards de dollars. Sachin Katti, un dirigeant d'OpenAI, a qualifié cette dépendance de "financièrement peu attractive" dans un message interne.

Cette impasse met en lumière la fragilité de la stratégie d'indépendance technologique d'OpenAI. La start-up cherche depuis plusieurs mois à réduire sa dépendance à Nvidia pour ses besoins en calcul, mais cette ambition se retrouve bloquée faute de garanties commerciales suffisantes. Pour Broadcom, assumer seul le risque industriel d'un projet de cette envergure sans acheteur garanti est tout simplement hors de question. La décision de Microsoft conditionne donc directement la viabilité du programme.

Ce projet s'inscrit dans une tendance plus large où les grandes plateformes d'IA cherchent à concevoir leurs propres puces spécialisées, à l'image de Google avec ses TPU ou d'Amazon avec ses Trainium. OpenAI avait annoncé des ambitions dans ce sens dans le cadre de l'initiative Stargate, le mégaprojet d'infrastructure à 500 milliards de dollars soutenu par l'administration Trump. La relation complexe entre OpenAI et Microsoft, à la fois partenaire stratégique et investisseur dominant, continue de peser sur chaque grande décision opérationnelle de la société.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'accord OpenAI-Broadcom sur les puces IA bute sur 18 milliards de financement
1The Information AI 

L'accord OpenAI-Broadcom sur les puces IA bute sur 18 milliards de financement

OpenAI et le fabricant de semi-conducteurs Broadcom avaient annoncé l'automne dernier un accord pour développer ensemble des puces d'intelligence artificielle sur mesure. L'ambition affichée était de taille : mettre en ligne suffisamment de composants avant 2030 pour consommer 10 gigawatts d'électricité, soit l'équivalent de cinq fois la production du barrage Hoover. L'objectif déclaré était de réduire la dépendance coûteuse d'OpenAI à l'égard des processeurs Nvidia. Ce que les deux entreprises n'avaient pas précisé, c'est qu'elles n'avaient pas encore trouvé comment financer le projet, dont le montant atteint 18 milliards de dollars. Ce blocage financier expose une contradiction au coeur de la stratégie d'OpenAI : l'entreprise affiche des ambitions d'infrastructure colossales tout en restant tributaire d'un partenaire unique, Nvidia, dont les GPU sont à la fois indispensables et extrêmement onéreux. Sans financement sécurisé, le calendrier du projet risque de glisser, laissant OpenAI dans une position de dépendance prolongée qui pèse directement sur ses marges et sa capacité à scaler ses modèles. Cette situation s'inscrit dans une course plus large à l'indépendance chipière. Google, Meta et Amazon ont chacun développé leurs propres accélérateurs maison pour s'affranchir de Nvidia. OpenAI, longtemps focalisé sur la recherche et les produits, arrive plus tardivement dans cette logique d'intégration verticale. L'accord avec Broadcom est une tentative de rattrapage, mais sa concrétisation dépend désormais de la capacité d'OpenAI à lever des fonds dans un contexte où ses dépenses opérationnelles restent très élevées.

InfrastructureOpinion
1 source
OpenAI crée un protocole réseau avec AMD, Broadcom, Intel, Microsoft et NVIDIA pour résoudre les goulets d'étranglement des supercalculateurs IA
2The Decoder 

OpenAI crée un protocole réseau avec AMD, Broadcom, Intel, Microsoft et NVIDIA pour résoudre les goulets d'étranglement des supercalculateurs IA

OpenAI a annoncé la mise au point du protocole réseau MRC en collaboration avec AMD, Broadcom, Intel, Microsoft et NVIDIA. Ce protocole open source permet de transmettre des données simultanément sur des centaines de chemins entre les GPU, là où les architectures traditionnelles n'en empruntent qu'un à la fois. Là où les infrastructures classiques nécessitent trois ou quatre couches de commutateurs réseau pour relier des dizaines de milliers de puces, MRC n'en requiert que deux pour interconnecter plus de 100 000 GPU. Le protocole est déjà opérationnel sur le supercalculateur Stargate d'OpenAI. Cette simplification de l'architecture réseau a des conséquences directes sur les coûts et la consommation d'énergie des centres de données d'IA. Supprimer une à deux couches de commutateurs représente une économie substantielle en matériel, en câblage et en électricité, à une époque où les dépenses en infrastructure IA atteignent des dizaines de milliards de dollars par an. Pour les opérateurs de supercalculateurs, cette approche permet d'atteindre des échelles inédites tout en maîtrisant la facture énergétique, un enjeu majeur alors que la consommation des data centers est de plus en plus scrutée. Le projet Stargate, dont les investissements annoncés dépassent 500 milliards de dollars sur plusieurs années, illustre l'ambition d'OpenAI de bâtir sa propre infrastructure de calcul à très grande échelle. La création d'un protocole open source, développé en consortium avec les principaux fabricants de semi-conducteurs et Microsoft, signale une volonté de standardiser les communications entre GPU à l'échelle des supercalculateurs modernes. En ouvrant MRC, OpenAI mise sur une adoption large qui pourrait en faire un standard de fait pour l'industrie.

UELe protocole MRC pourrait réduire la consommation énergétique des supercalculateurs IA, un enjeu directement encadré par la réglementation européenne sur l'efficacité énergétique des centres de données.

💬 Enlever une à deux couches de commutateurs sur 100 000 GPU, ça veut dire des centaines de millions en matériel et en électricité économisés, pas un détail à cette échelle. Ce qui me frappe, c'est qu'OpenAI ouvre le protocole en consortium avec AMD, Broadcom, Intel et NVIDIA, plutôt que de le garder propriétaire. La stratégie est lisible : faire de MRC un standard de fait avant que quelqu'un d'autre s'y colle.

InfrastructureOpinion
1 source
Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial
3Le Big Data 

Vous ne trouvez pas de RAM ? Merci OpenAI qui a réservé 40% du stock mondial

En octobre 2025, Sam Altman a conclu des accords préliminaires avec les deux géants mondiaux de la mémoire vive, Samsung Electronics et SK Hynix, pour réserver 900 000 wafers de DRAM par mois — soit environ 40 % de la production mondiale totale. Ces lettres d'intention, signées sans commande ferme ni paiement immédiat, ont suffi à déclencher une onde de choc sur le marché. Les deux fabricants coréens ignoraient qu'ils s'engageaient simultanément pour les mêmes volumes. Résultat : un kit DDR5-6000 de 32 Go, qui coûtait 139 € avant ces annonces, s'affiche aujourd'hui à plus de 340 € chez des revendeurs comme LDLC. En mars 2026, la situation s'est encore aggravée lorsqu'OpenAI a rompu son engagement de 71 milliards de dollars avec SK Hynix, faisant chuter les actions de Micron et semant la panique chez les distributeurs qui avaient déjà anticipé la pénurie en masquant leurs tarifs publics. L'impact est immédiat et concret pour des millions d'utilisateurs. Les fabricants comme Micron ont fermé leur division grand public — la marque Crucial a pratiquement disparu des rayons — pour rediriger leurs lignes de production vers la mémoire HBM destinée aux centres de données IA. TrendForce estime que les datacenters capteront 70 % de la production mondiale de puces en 2026, ne laissant que des miettes au marché des PC. La part de la mémoire dans le coût d'un ordinateur HP est passée de 15 % à 35 %. Les consoles portables comme le Steam Deck de Valve sont en rupture de stock dans le monde entier, faute de composants disponibles. Gartner prévoit une chute des ventes de PC d'entrée de gamme et de configurations accessibles aux petits budgets, pénalisant directement les étudiants, les travailleurs indépendants et les pays émergents. Cette crise illustre un phénomène plus large : la mainmise croissante des géants de l'IA sur les chaînes d'approvisionnement en semi-conducteurs, au détriment du marché grand public. OpenAI, forte de la confiance des marchés et de ses investisseurs, a pu bloquer une fraction massive de la production mondiale sans débourser un centime, simplement par le poids de sa signature. Ce type de spéculation sur lettres d'intention crée des goulots d'étranglement artificiels qui faussent les prix bien avant que la moindre puce ne sorte d'usine. La question qui se pose désormais est celle de la régulation : faut-il encadrer les achats anticipés de composants stratégiques pour éviter que les ambitions d'un seul acteur ne paralysent l'ensemble du marché informatique mondial ? Les prochains mois seront déterminants, notamment si d'autres acteurs comme Microsoft, Google ou Meta suivent la même stratégie d'accaparement.

UELes prix de la RAM ont doublé en France (139 € à 340 € chez LDLC), pénalisant directement étudiants et indépendants, et la question d'une régulation européenne des réservations massives de composants stratégiques par les géants de l'IA devient urgente.

💬 Réserver 40% de la RAM mondiale avec une lettre d'intention sans débourser un centime, c'est du culot à l'état pur. Résultat : 139 € le kit DDR5 en octobre, 340 € aujourd'hui, et Crucial qui a pratiquement disparu des rayons. Si on n'encadre pas ce genre de spéculation sur des composants stratégiques, d'autres acteurs vont tenter le même coup.

InfrastructureOpinion
1 source
Anthropic en négociation pour acheter des puces IA à une startup britannique
4The Information AI 

Anthropic en négociation pour acheter des puces IA à une startup britannique

Anthropic est en discussions avec la startup londonienne Fractile pour acquérir des puces d'inférence destinées à faire tourner ses modèles d'IA. Selon deux sources proches des dirigeants de Fractile, les pourparlers portent sur un approvisionnement qui deviendrait effectif l'année prochaine, une fois les puces disponibles. Anthropic, qui commercialise les modèles Claude, s'appuie aujourd'hui sur trois fournisseurs principaux : Google, Amazon et Nvidia. Ce potentiel contrat avec Fractile constituerait donc une quatrième source d'approvisionnement en matériel. L'enjeu est stratégique : les ventes d'Anthropic connaissent une croissance explosive qui met sous pression les serveurs existants, et les dépenses de la société en infrastructure sont projetées à plusieurs dizaines de milliards de dollars par an. En diversifiant ses fournisseurs, Anthropic se dote d'un levier de négociation face à des géants comme Nvidia, dont les puces restent en forte demande. Les puces d'inférence de Fractile sont conçues pour faire tourner des modèles d'IA de manière plus efficiente, ce qui peut réduire les coûts opérationnels à grande échelle. Cette démarche s'inscrit dans une tendance de fond : les grands laboratoires d'IA cherchent à réduire leur dépendance à Nvidia, dont les GPU H100 et Blackwell sont devenus un goulot d'étranglement mondial. Des acteurs comme Google avec ses TPU, ou Amazon avec ses puces Trainium, développent déjà leurs alternatives en interne. Fractile, startup britannique encore confidentielle, tente de s'imposer sur ce marché émergent des puces d'inférence spécialisées, où la compétition s'intensifie rapidement.

UEL'émergence de Fractile, startup londonienne, comme fournisseur potentiel d'Anthropic illustre la capacité des entreprises européennes à s'imposer dans le marché stratégique des puces d'inférence IA, même si l'impact direct sur la France et l'UE reste indirect à ce stade.

💬 Anthropic n'achète pas des puces, il achète du pouvoir de négociation face à Nvidia. Avoir un quatrième fournisseur dans la poche, c'est surtout une façon de ne plus être otage des GPU H100 qui manquent à tout le monde. Reste à voir si Fractile peut vraiment tenir la cadence quand Anthropic va en avoir besoin.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour