Aller au contenu principal
OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital
InfrastructureThe Information AI1h

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital

1 source couvre ce sujet·Source originale ↗·

OpenAI a conclu un accord majeur avec Cerebras Systems, le fabricant de puces AI concurrent de Nvidia, pour un montant total dépassant 20 milliards de dollars sur trois ans. Selon plusieurs sources proches du dossier, cette somme, deux fois supérieure aux chiffres précédemment évoqués, servira à financer l'utilisation de serveurs équipés des puces Cerebras. En parallèle, OpenAI s'est engagé à injecter environ 1 milliard de dollars supplémentaires pour financer la construction de centres de données destinés à héberger ses produits d'intelligence artificielle.

En contrepartie de ces dépenses, OpenAI recevra des bons de souscription donnant accès à une participation minoritaire dans Cerebras, participation qui pourrait croître proportionnellement aux sommes dépensées. Cet accord constitue une tentative directe de réduire la dépendance d'OpenAI envers Nvidia, dont les puces H100 et H200 dominent le marché de l'infrastructure IA. Pour OpenAI, l'enjeu est double : diversifier ses fournisseurs de calcul tout en pesant sur les coûts d'entraînement et d'inférence de ses modèles, qui représentent plusieurs milliards de dollars par an.

Cerebras, connue pour ses puces WSE (Wafer Scale Engine) aux performances élevées sur certaines charges de travail, tentait de lancer son introduction en bourse depuis 2024, un processus retardé notamment par des questions réglementaires liées à ses investisseurs du Moyen-Orient. Cet accord avec OpenAI change radicalement sa trajectoire et sa valorisation potentielle. Il s'inscrit dans un mouvement plus large de l'industrie tech visant à diversifier l'approvisionnement en silicium face à la pénurie et au pouvoir de marché de Nvidia, tandis que des acteurs comme AMD, Intel et des startups comme Groq cherchent également à s'imposer comme alternatives crédibles.

À lire aussi

Les bons résultats de TSMC confirment l'élan de l'IA
1The Information AI 

Les bons résultats de TSMC confirment l'élan de l'IA

TSMC, le géant taïwanais de la fabrication de puces électroniques, a publié jeudi ses résultats du premier trimestre 2026 avec une croissance de revenus de 40,6%, dépassant le haut de sa fourchette de prévisions. Le PDG C.C. Wei a relevé l'objectif de croissance annuel à plus de 30%, et déclaré que "la demande liée à l'IA continue d'être extrêmement robuste." Cette évaluation repose sur les retours directs des clients de TSMC, au premier rang desquels Nvidia, ainsi que des grandes firmes cloud qui achètent ces puces. Ces résultats constituent un signal fort pour l'ensemble du secteur technologique. Si TSMC, qui fabrique les puces pour pratiquement tous les grands acteurs de l'IA, affiche une telle croissance, cela laisse présager des résultats solides pour les grandes entreprises tech qui publieront leurs chiffres trimestriels plus tard en avril. Les marchés ont déjà anticipé cette dynamique : depuis fin mars, Microsoft a progressé de 18%, Nvidia de 20%, et le Nasdaq dans son ensemble de 16%. La vigueur de TSMC s'inscrit dans un contexte de multiplication des signaux haussiers autour de l'IA, malgré les incertitudes macroéconomiques mondiales. Le fabricant taïwanais occupe une position unique dans la chaîne de valeur : il est le maillon indispensable entre les concepteurs de puces comme Nvidia ou AMD et les déploiements massifs des hyperscalers comme Microsoft Azure, Google Cloud ou Amazon AWS. La robustesse de sa demande suggère que les investissements en infrastructure IA ne montrent aucun signe de ralentissement, alimentant l'optimisme avant une saison de résultats qui s'annonce décisive pour valider, ou nuancer, l'enthousiasme des marchés.

InfrastructureOpinion
1 source
Les agents IA unifiés de Meta optimisent les performances à grande échelle
2Meta Engineering ML 

Les agents IA unifiés de Meta optimisent les performances à grande échelle

Meta a développé une plateforme d'agents IA unifiée pour automatiser la détection et la résolution des problèmes de performance à l'échelle de son infrastructure mondiale, qui sert plus de 3 milliards d'utilisateurs. Ce programme, baptisé Capacity Efficiency Program, repose sur des agents capables d'encoder l'expertise de ses ingénieurs seniors en compétences réutilisables et composables. Résultat concret : des centaines de mégawatts (MW) de puissance électrique récupérés, soit de quoi alimenter des centaines de milliers de foyers américains pendant un an. L'outil interne FBDetect détecte chaque semaine des milliers de régressions de performance, et les agents IA prennent désormais en charge leur résolution automatisée, compressant environ dix heures d'investigation manuelle en trente minutes. Les agents vont même jusqu'à générer des pull requests prêtes à révision, couvrant l'intégralité du chemin depuis la détection d'une opportunité d'optimisation jusqu'à la correction du code. L'impact est double : économique et opérationnel. Côté défense, chaque régression non résolue rapidement se traduit par une consommation électrique supplémentaire qui s'accumule sur l'ensemble du parc de serveurs de Meta. Côté offensif, les agents permettent désormais d'explorer proactivement des optimisations dans un nombre croissant de domaines produits, des opportunités que les ingénieurs n'auraient jamais le temps de traiter manuellement. Le programme peut ainsi augmenter sa capacité de livraison de mégawatts sans augmenter proportionnellement les effectifs humains, ce qui représente un levier de scalabilité majeur pour une infrastructure de cette taille. Libérés des tâches d'investigation répétitives, les ingénieurs peuvent se concentrer sur l'innovation produit. Ce projet s'inscrit dans une tendance plus large chez les grandes plateformes technologiques : automatiser la gestion de la complexité interne à mesure que l'infrastructure croît plus vite que les équipes humaines. Chez Meta, la découverte clé a été que l'offense (recherche proactive d'optimisations) et la défense (détection de régressions) partagent la même structure de problème, ce qui a permis de construire une plateforme unique plutôt que deux systèmes séparés. L'interface d'outils standardisée est au cœur de l'architecture : elle permet aux agents de combiner investigation de données de profilage, consultation de documentation interne, analyse des déploiements récents et recherche de discussions liées. L'objectif à terme est un moteur d'efficacité autonome où l'IA gère la longue traîne des problèmes de performance, un modèle qui pourrait inspirer d'autres hyperscalers confrontés aux mêmes contraintes d'échelle.

InfrastructureActu
1 source
Déployer l'IA dans les environnements contraints du secteur public
3MIT Technology Review 

Déployer l'IA dans les environnements contraints du secteur public

Les institutions publiques du monde entier subissent une pression croissante pour adopter l'intelligence artificielle, mais leur contexte opérationnel diffère radicalement de celui du secteur privé. Une étude de Capgemini révèle que 79 % des dirigeants du secteur public s'inquiètent de la sécurité des données liées à l'IA, une préoccupation justifiée au regard de la sensibilité des informations gouvernementales et des obligations légales qui les entourent. Han Xiao, vice-président de l'IA chez Elastic, résume la situation : les agences gouvernementales doivent strictement contrôler les données qu'elles envoient sur le réseau, ce qui impose de nombreuses contraintes sur leur approche de l'IA. Une enquête d'Elastic auprès de décideurs publics révèle par ailleurs que 65 % d'entre eux peinent à exploiter leurs données en continu, en temps réel et à grande échelle. Là où le secteur privé présuppose une connectivité permanente au cloud, une infrastructure centralisée et une liberté de mouvement des données, les administrations publiques ne peuvent accepter ces conditions. Elles doivent garantir que leurs données restent sous leur contrôle, que les informations peuvent être vérifiées, et que la continuité des opérations est assurée, y compris dans des environnements où la connexion internet est limitée ou inexistante. S'ajoute à cela un autre obstacle matériel : les administrations achètent rarement des GPU, ces processeurs graphiques indispensables pour faire tourner les grands modèles d'IA, faute d'habitude de gérer ce type d'infrastructure. Ces contraintes cumulées expliquent pourquoi de nombreux projets pilotes d'IA dans le secteur public ne franchissent jamais le stade de l'expérimentation. Face à ces limites, les petits modèles de langage, ou SLM (Small Language Models), apparaissent comme une solution adaptée. Contrairement aux grands modèles comme GPT-4 qui mobilisent des centaines de milliards de paramètres, les SLM n'en utilisent que quelques milliards, ce qui les rend bien moins gourmands en ressources de calcul et permet de les héberger localement, sans dépendance au cloud. Des études empiriques montrent que leurs performances sont comparables, voire supérieures à celles des LLM sur des tâches spécialisées. Les données restent stockées en dehors du modèle et ne sont consultées qu'au moment des requêtes, grâce à des techniques comme la recherche vectorielle et l'ancrage sur des sources vérifiables. Des entreprises comme Elastic positionnent ces approches comme la voie réaliste vers une IA véritablement opérationnelle dans les administrations, à l'heure où la pression politique en faveur de la modernisation numérique ne cesse de s'intensifier.

UELes administrations françaises et européennes, contraintes par le RGPD et les exigences de souveraineté des données, trouvent dans les SLM déployables en local une voie concrète pour dépasser le stade pilote et accélérer leur modernisation numérique sans dépendance au cloud.

InfrastructureOpinion
1 source
Pourquoi les infrastructures cloud dédiées à l’IA deviennent un enjeu stratégique en Europe ?
4Le Big Data 

Pourquoi les infrastructures cloud dédiées à l’IA deviennent un enjeu stratégique en Europe ?

Le groupe SWI (Stoneweg Icona Group) a annoncé l'acquisition d'une participation majoritaire dans Polarise, une société allemande spécialisée dans les infrastructures cloud pour l'intelligence artificielle, valorisant cette dernière à 500 millions d'euros. En parallèle, SWI s'engage à injecter un milliard d'euros supplémentaires pour accélérer le développement de ce qui se veut le premier opérateur d'infrastructures numériques souveraines à l'échelle européenne. Polarise dispose déjà de 14 centres de données opérationnels à travers l'Europe, d'une capacité totale de 2,3 GW via sa plateforme AiOnX, et d'un partenariat privilégié avec Nvidia lui donnant accès direct aux GPU les plus puissants du marché. La société a également lancé la première "AI Factory" d'Allemagne en collaboration avec Deutsche Telekom, positionnant d'emblée ce rapprochement comme une initiative industrielle de premier plan. Max-Hervé George, fondateur et PDG de SWI Group, pilote cette stratégie d'intégration verticale, couvrant la chaîne complète du foncier aux logiciels cloud. L'enjeu est considérable : les entreprises et gouvernements européens cherchent à réduire leur dépendance aux hyperscalers américains, AWS, Azure, Google Cloud, pour les charges de travail les plus sensibles. L'acquisition permet à SWI de proposer un modèle "GPU-as-a-Service" permettant aux organisations de louer de la puissance de calcul GPU à la demande, sans investissement lourd en matériel, via une infrastructure localisée en Europe et soumise au droit européen. Pour les industries de pointe en Allemagne, en France ou en Norvège, cela représente un accès à des capacités de calcul haute performance sans compromis sur la souveraineté des données. Ce modèle favorise également une innovation plus rapide pour les startups et PME qui n'ont pas les moyens de construire leur propre infrastructure. Cette opération s'inscrit dans un mouvement plus large de structuration de la filière IA européenne face à la domination des géants américains et à la montée en puissance des acteurs chinois. L'Union européenne multiplie depuis plusieurs années les appels à bâtir une capacité numérique autonome, notamment à travers le règlement sur l'IA et les investissements du programme Horizon. La rareté des GPU Nvidia, dont Polarise est revendeur agréé, confère à cette alliance un avantage concurrentiel structurel dans un marché sous tension. Les prochaines étapes visent l'extension géographique vers l'Allemagne et la Norvège, deux pays disposant d'une énergie abondante et bon marché indispensable pour alimenter ces infrastructures énergivores. Si SWI tient ses engagements d'investissement, le groupe pourrait devenir un acteur de référence pour les contrats publics et les grandes entreprises cherchant une alternative crédible aux solutions extraeuropéennes.

UEL'acquisition crée un opérateur cloud souverain européen offrant aux entreprises et gouvernements de l'UE une alternative concrète aux hyperscalers américains pour leurs charges de travail sensibles, avec accès aux GPU Nvidia via une infrastructure soumise au droit européen.

InfrastructureOpinion
1 source