Aller au contenu principal
Terafab : le pari fou d’Elon Musk pour dominer le silicium mondial
InfrastructureLe Big Data55min

Terafab : le pari fou d’Elon Musk pour dominer le silicium mondial

Résumé IASource uniqueImpact UE
Source originale ↗·

Elon Musk a annoncé le lancement de la Terafab, une méga-usine de semi-conducteurs implantée à Austin, au Texas, dotée d'un budget de 25 milliards de dollars. Le projet fusionne pour la première fois les ressources de Tesla, SpaceX et xAI sous un même toit industriel, avec l'ambition de produire des puces gravées à 2 nanomètres capables de délivrer une puissance de calcul annuelle d'un térawatt. L'objectif est de fabriquer en interne les processeurs dont dépendent les véhicules autonomes Tesla, les satellites Starlink et les systèmes d'intelligence artificielle de xAI. Le site d'Austin intégrera deux usines spécialisées, l'une dédiée aux processeurs pour réseaux satellites, l'autre aux puces pour la robotique terrestre, avec une capacité de production se chiffrant en milliards d'unités par an.

L'enjeu central de la Terafab est de couper la dépendance de l'empire Musk vis-à-vis de TSMC, le géant taïwanais qui fabrique aujourd'hui l'essentiel des puces avancées mondiales. En internalisant toute la chaîne de valeur du silicium, de la conception à la production, Musk s'affranchit des délais de livraison, des fluctuations géopolitiques et des capacités limitées des fonderies externes. Cette boucle de tests intégrée entre les entités du groupe permettrait d'accélérer significativement le développement de nouveaux designs de puces. Pour l'industrie de l'IA, une telle capacité de production autonome représente un avantage compétitif majeur : xAI pourrait disposer d'un accélérateur de calcul garanti, indépendant des tensions d'approvisionnement qui ont paralysé d'autres acteurs du secteur ces dernières années.

La Terafab s'inscrit dans un contexte de course mondiale aux semi-conducteurs où les États-Unis cherchent à réduire leur exposition à la production asiatique, notamment à travers le CHIPS Act voté en 2022. Intel, TSMC et Samsung ont déjà engagé des dizaines de milliards pour construire des capacités de fabrication en sol américain, mais aucun de ces projets ne combine production de puces et consommation captive à l'échelle envisagée par Musk. La stratégie d'intégration verticale totale rappelle l'approche de Tesla dans la batterie ou de SpaceX dans la fusée : tout fabriquer soi-même pour gagner en vitesse et en marge. Si la Terafab tient ses promesses, elle pourrait repositionner le Texas comme un nouveau centre mondial du silicium et faire de Musk le seul industriel occidental à contrôler simultanément les puces, les satellites, les robots et les modèles d'IA qui les font tourner.

Impact France/UE

La montée en puissance d'une filière semi-conducteurs américaine intégrée intensifie la pression concurrentielle sur l'European Chips Act, qui vise lui aussi à rapatrier la fabrication de puces avancées sur le continent européen.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Terafab : Elon Musk dévoile son plan pour créer la plus grande usine de puces mondiale
1Le Big Data 

Terafab : Elon Musk dévoile son plan pour créer la plus grande usine de puces mondiale

Elon Musk a annoncé Terafab, une méga-usine de semi-conducteurs implantée à Austin, Texas, co-entreprise entre Tesla, SpaceX et xAI, visant à produire jusqu'à un térawatt de puissance de calcul par an — une échelle inédite dans l'industrie. Le projet répond à la pénurie de puces pour l'IA générative, la robotique et les infrastructures spatiales, Musk estimant que TSMC, Samsung et Micron ne couvrent que 2 % des besoins futurs de ses entreprises. Terafab produira deux types de puces — terrestres et durcies pour l'espace — dans l'optique d'une souveraineté totale sur la chaîne d'approvisionnement en calcul, bien que le projet reste confronté à d'importants défis industriels et technologiques.

UEAccentue la dépendance structurelle de l'Europe en semi-conducteurs avancés au moment où l'UE tente de développer sa propre capacité de production via l'European Chips Act.

InfrastructureActu
1 source
Intel participera à la construction de l'usine de puces IA Terafab d'Elon Musk
2The Verge AI 

Intel participera à la construction de l'usine de puces IA Terafab d'Elon Musk

Intel s'associe au projet Terafab d'Elon Musk, une gigafabrique de puces IA en cours de construction à Austin, au Texas. Le fabricant américain de semi-conducteurs a annoncé mardi qu'il participait à la conception et à la construction de cette installation, dont l'objectif est de fournir des puces IA aux deux entreprises de Musk : SpaceX, récemment fusionnée avec xAI, et Tesla. Aucun chiffre d'investissement n'a été rendu public pour l'instant, mais l'ampleur du site laisse entrevoir un projet de plusieurs milliards de dollars. Ce partenariat est stratégique pour les deux parties. Musk a besoin de volumes massifs de puces pour alimenter ses ambitions : voitures autonomes, robots humanoïdes, et des centres de données qu'il envisage de déployer dans l'espace via SpaceX. Pour Intel, qui traverse une période difficile face à TSMC et Nvidia, décrocher un contrat avec l'un des acteurs les plus en vue de l'IA américaine représente un signal fort sur sa capacité à rester compétitif dans la course aux semi-conducteurs avancés. Terafab s'inscrit dans un mouvement plus large de relocalisation de la production de puces aux États-Unis, accéléré par le CHIPS Act et les tensions géopolitiques autour de Taiwan. Musk, dont SpaceX prépare son introduction en bourse cette année, cherche à sécuriser une chaîne d'approvisionnement indépendante des fabricants asiatiques. Intel, de son côté, mise sur son activité de fonderie pour reconquérir des parts de marché perdues face à ses concurrents.

UELa concentration croissante de la production de puces IA aux États-Unis via des méga-projets comme Terafab risque de renforcer la dépendance européenne vis-à-vis des fournisseurs américains de semi-conducteurs, au détriment des ambitions du Chips Act européen.

InfrastructureActu
1 source
Mustafa Suleyman : le développement de l'IA ne va pas stagner de sitôt, voici pourquoi
3MIT Technology Review 

Mustafa Suleyman : le développement de l'IA ne va pas stagner de sitôt, voici pourquoi

Mustafa Suleyman, PDG de Microsoft AI et cofondateur de DeepMind, affirme que le développement de l'intelligence artificielle n'est pas près de plafonner. Depuis ses débuts dans le domaine en 2010, la puissance de calcul consacrée à l'entraînement des grands modèles a été multipliée par mille milliards : on est passé d'environ 10¹⁴ opérations en virgule flottante pour les premiers systèmes à plus de 10²⁶ aujourd'hui. Les puces Nvidia ont vu leurs performances brutes multipliées par huit en six ans, passant de 312 téraflops en 2020 à 2 500 téraflops aujourd'hui. La mémoire à haute bande passante HBM3 triple le débit de données par rapport à sa génération précédente. Des interconnexions comme NVLink et InfiniBand permettent désormais de relier des centaines de milliers de GPU en supercalculateurs de la taille d'un entrepôt. Ce qui prenait 167 minutes sur huit GPU en 2020 prend aujourd'hui moins de quatre minutes sur du matériel moderne, soit une amélioration de 50x là où la loi de Moore n'en prédisait que 5x. Les dépenses des grands laboratoires en infrastructure de calcul croissent à un rythme d'environ 4x par an, et le parc mondial de calcul dédié à l'IA devrait atteindre l'équivalent de 100 millions de puces H100 d'ici 2027. Ces chiffres ont des implications concrètes pour l'industrie : Suleyman estime qu'on pourrait voir encore 1 000x de puissance de calcul effective d'ici fin 2028. Parallèlement, les coûts d'inférence, c'est-à-dire d'utilisation des modèles, se sont effondrés d'un facteur allant jusqu'à 900 sur une base annualisée. L'IA devient donc radicalement moins chère à déployer, ce qui ouvre l'accès à des entreprises et des usages jusqu'ici inaccessibles économiquement. Selon les recherches d'Epoch AI, la quantité de calcul nécessaire pour atteindre un niveau de performance donné est divisée par deux environ tous les huit mois, un rythme bien supérieur aux 18 à 24 mois du cycle classique de Moore. Les sceptiques prédisent régulièrement un essoufflement de la progression, invoquant le ralentissement de la loi de Moore, la raréfaction des données d'entraînement ou les contraintes énergétiques. Suleyman balaie ces arguments en montrant que la dynamique repose sur trois leviers simultanés et indépendants : des puces plus rapides, une mémoire plus efficace, et une mise en réseau massive des GPU. Son propre laboratoire chez Microsoft a lancé en janvier 2026 la puce Maia 200, qui offre selon lui 30 % de meilleures performances par dollar que tout autre matériel de leur flotte. Le tableau qu'il dresse est celui d'une révolution encore en pleine accélération, où les avancées matérielles et logicielles se renforcent mutuellement, une perspective qui tranche avec le pessimisme ambiant sur les limites supposées de l'IA générative.

InfrastructureOpinion
1 source
4NVIDIA AI Blog 

Repenser le coût total de l'IA : pourquoi le coût par token est la seule métrique qui compte

Les centres de données d'entreprise sont en train de vivre une mutation profonde : autrefois dédiés au stockage et au traitement de données, ils deviennent des usines à tokens, dont la production principale est l'intelligence artificielle générée à la demande. Cette transformation oblige les entreprises à repenser entièrement leur manière d'évaluer le coût total de possession (TCO) de leur infrastructure IA. Or, selon NVIDIA, la majorité des décideurs continuent de se focaliser sur des métriques obsolètes : le coût par GPU par heure ou les FLOPS par dollar, c'est-à-dire la puissance brute de calcul obtenue pour chaque dollar investi. Ces indicateurs mesurent des intrants, alors que les entreprises, elles, font tourner leur activité sur des extrants. La seule métrique qui compte réellement est le coût par million de tokens produits, soit le coût tout compris pour générer chaque unité d'intelligence délivrée à l'utilisateur final. Optimiser ce coût par token change fondamentalement l'équation économique de l'IA. Le numérateur de cette équation, le coût horaire du GPU, est visible et facile à comparer entre fournisseurs cloud ou solutions on-premise. Mais c'est le dénominateur, soit le volume de tokens effectivement délivrés par seconde, qui détermine la rentabilité réelle. Augmenter ce débit produit deux effets simultanés : il réduit le coût unitaire de chaque interaction servie, améliorant ainsi les marges, et il augmente le nombre de tokens par mégawatt consommé, ce qui permet de générer davantage de revenus à partir du même investissement infrastructurel. NVIDIA affirme proposer le coût par token le plus bas du secteur, notamment sur les modèles de raisonnement de type mixture-of-experts (MoE), qui représentent aujourd'hui la catégorie de modèles la plus largement déployée en production. Cette réévaluation des critères de choix s'inscrit dans un contexte de montée en puissance de l'IA agentique, où les systèmes autonomes enchaînent des séquences longues d'inférences, rendant le débit et la latence encore plus critiques. Des technologies comme le décodage spéculatif, la prédiction multi-token, le routage KV-aware ou encore le déchargement du cache KV permettent d'augmenter substantiellement le débit réel sans changer le matériel. La prise en charge de la précision FP4, la capacité de l'interconnexion à gérer le trafic all-to-all des modèles MoE, ou encore les optimisations de la couche de serving deviennent des critères de sélection déterminants. Pour les déploiements on-premise notamment, où l'engagement en capital sur le foncier, l'énergie et l'infrastructure est massif, maximiser l'intelligence produite par mégawatt n'est plus une option technique mais un impératif économique.

InfrastructureActu
1 source