Aller au contenu principal
Intel participera à la construction de l'usine de puces IA Terafab d'Elon Musk
InfrastructureThe Verge AI2h

Intel participera à la construction de l'usine de puces IA Terafab d'Elon Musk

2 sources couvrent ce sujet·Source originale ↗·
Egalement couvert par :TechCrunch AI

Intel s'associe au projet Terafab d'Elon Musk, une gigafabrique de puces IA en cours de construction à Austin, au Texas. Le fabricant américain de semi-conducteurs a annoncé mardi qu'il participait à la conception et à la construction de cette installation, dont l'objectif est de fournir des puces IA aux deux entreprises de Musk : SpaceX, récemment fusionnée avec xAI, et Tesla. Aucun chiffre d'investissement n'a été rendu public pour l'instant, mais l'ampleur du site laisse entrevoir un projet de plusieurs milliards de dollars.

Ce partenariat est stratégique pour les deux parties. Musk a besoin de volumes massifs de puces pour alimenter ses ambitions : voitures autonomes, robots humanoïdes, et des centres de données qu'il envisage de déployer dans l'espace via SpaceX. Pour Intel, qui traverse une période difficile face à TSMC et Nvidia, décrocher un contrat avec l'un des acteurs les plus en vue de l'IA américaine représente un signal fort sur sa capacité à rester compétitif dans la course aux semi-conducteurs avancés.

Terafab s'inscrit dans un mouvement plus large de relocalisation de la production de puces aux États-Unis, accéléré par le CHIPS Act et les tensions géopolitiques autour de Taiwan. Musk, dont SpaceX prépare son introduction en bourse cette année, cherche à sécuriser une chaîne d'approvisionnement indépendante des fabricants asiatiques. Intel, de son côté, mise sur son activité de fonderie pour reconquérir des parts de marché perdues face à ses concurrents.

Impact France/UE

La concentration croissante de la production de puces IA aux États-Unis via des méga-projets comme Terafab risque de renforcer la dépendance européenne vis-à-vis des fournisseurs américains de semi-conducteurs, au détriment des ambitions du Chips Act européen.

À lire aussi

L’alliance inattendue : quand les batteries géantes débloquent la surpuissance de l’intelligence artificielle
1Frandroid 

L’alliance inattendue : quand les batteries géantes débloquent la surpuissance de l’intelligence artificielle

Les grandes installations de stockage par batteries, jusqu'ici connues pour acheter de l'électricité lors des creux tarifaires et la revendre aux heures de pointe, s'ouvrent à une nouvelle activité : alimenter directement les centres de données consacrés à l'intelligence artificielle. Ce modèle, encore émergent, consiste à brancher des batteries industrielles en amont des datacenters pour lisser leur consommation électrique, réduire les pics de demande sur le réseau et garantir une alimentation stable même lorsque l'approvisionnement classique vacille. L'enjeu est considérable pour l'industrie de l'IA, dont les besoins énergétiques explosent. Les grands modèles d'entraînement et d'inférence mobilisent des milliers de GPU en continu, générant des appels de puissance brutaux difficiles à absorber pour les gestionnaires de réseau. En s'intercalant entre le réseau électrique et les serveurs, les batteries permettent aux opérateurs de datacenters de sécuriser leur alimentation, d'éviter des pénalités de dépassement de puissance souscrite et, surtout, de s'implanter dans des zones où la capacité réseau est insuffisante pour ouvrir un datacenter classique. Cette convergence survient alors que les géants du cloud et les startups d'IA se livrent une course mondiale aux infrastructures de calcul, tandis que les réseaux électriques peinent à suivre le rythme. Des développeurs de projets de stockage, notamment aux États-Unis et au Royaume-Uni, explorent déjà des contrats directs avec des opérateurs comme Microsoft, Google ou des acteurs spécialisés en IA. La question reste celle de la rentabilité : combiner arbitrage tarifaire et fourniture de puissance garantie à un datacenter pourrait transformer le modèle économique du stockage stationnaire, longtemps dépendant des seules subventions et des marchés de capacité.

UEL'Europe, confrontée aux mêmes tensions sur ses réseaux électriques face à l'explosion des besoins en datacenters IA, pourrait adopter ce modèle hybride batteries-datacenter pour contourner ses propres contraintes de capacité réseau.

InfrastructureOpinion
1 source
GitHub enregistre une hausse de trafic et des pannes liees a l'afflux d'agents IA sur la plateforme
2The Information AI 

GitHub enregistre une hausse de trafic et des pannes liees a l'afflux d'agents IA sur la plateforme

GitHub, la plateforme de dépôts de code appartenant à Microsoft, enregistre une hausse spectaculaire de son trafic sous l'effet de l'automatisation pilotée par des agents d'intelligence artificielle. Selon Kyle Daigle, directeur des opérations de GitHub, cette vague d'activité générée par des systèmes automatisés provoque des pics de charge inédits sur les serveurs de la plateforme, allant jusqu'à causer des interruptions de service. Les développeurs utilisent désormais des agents IA capables de produire des volumes de code bien supérieurs à ce qu'un humain pourrait écrire seul. Cette dynamique transforme en profondeur les habitudes de développement logiciel. Des entreprises comme Meta organisent des concours internes appelés "tokenmaxxing", où les ingénieurs s'affrontent pour maximiser la consommation de tokens IA, signe que la productivité se mesure désormais à l'aune de la capacité à piloter ces outils automatisés. Pour GitHub, cette tendance représente à la fois une opportunité commerciale majeure et un défi d'infrastructure critique : la plateforme doit absorber un trafic d'une nature radicalement différente, continu et massif, là où les humains travaillent de façon discontinue. Cette évolution s'inscrit dans un contexte plus large d'industrialisation du développement logiciel par l'IA. GitHub, qui héberge des centaines de millions de dépôts, est devenu un point de passage obligé pour les workflows d'agents autonomes qui clonent, modifient et poussent du code en boucle. La question de la résilience des infrastructures centrales du développement logiciel mondial devient ainsi un enjeu stratégique, au moment où Microsoft investit massivement dans l'intégration de Copilot et d'outils IA au sein de l'écosystème GitHub.

UELes développeurs et entreprises européennes utilisant GitHub sont exposés aux risques de pannes liées à la surcharge par agents IA, ce qui soulève des questions de dépendance à une infrastructure critique américaine.

InfrastructureActu
1 source
L'AI-RAN redefinit l'intelligence et l'autonomie en bordure de reseau pour les entreprises
3VentureBeat AI 

L'AI-RAN redefinit l'intelligence et l'autonomie en bordure de reseau pour les entreprises

Les réseaux radio à intelligence artificielle, connus sous l'acronyme AI-RAN, s'imposent progressivement comme une refonte profonde de l'infrastructure sans fil en entreprise. Lors d'une conversation avec VentureBeat, Chris Christou, vice-président senior chez Booz Allen, et Shervin Gerami, directeur général au Cerberus Operations Supply Chain Fund, ont détaillé les contours de cette transformation. Christou résume l'enjeu : l'AI-RAN permet d'étendre les promesses de la 5G, et demain de la 6G, en hébergeant directement de l'inférence IA au niveau de la périphérie du réseau, pour des cas d'usage comme la fabrication intelligente ou les entrepôts autonomes. Gerami va plus loin : selon lui, l'AI-RAN n'est pas une mise à niveau réseau, c'est un système d'exploitation pour les industries physiques. Le concept se décline en trois niveaux distincts : l'IA pour le RAN (optimisation interne du réseau), l'IA sur le RAN (exécution de charges de travail IA comme la vision par ordinateur ou l'inférence LLM locale), et enfin l'IA et le RAN conjointement, où applications et infrastructure radio sont conçues ensemble comme un système distribué coordonné. L'impact concret de cette convergence est considérable pour les secteurs industriels, logistiques et de santé. Le principe ISAC (Integrated Sensing and Communications) transforme le réseau lui-même en capteur, capable de détecter des mouvements, de suivre des actifs avec une précision inférieure au mètre dans des usines ou des hôpitaux, d'identifier des intrusions périmètriques ou d'optimiser la consommation énergétique de bâtiments intelligents. Là où les entreprises gèrent aujourd'hui des dizaines de systèmes distincts -- caméras, radars, capteurs de mouvement, traceurs d'actifs -- l'ISAC pourrait consolider ces capacités nativement dans le réseau, réduisant les coûts de maintenance, d'intégration et de gestion des fournisseurs. Pour les applications critiques comme la robotique en temps réel, l'inspection qualité instantanée ou la maintenance prédictive, la réduction de latence qu'offre l'IA en périphérie représente souvent la différence entre un système opérationnel et un système inutilisable. Cette dynamique s'inscrit dans un mouvement plus large de convergence entre cloud computing et infrastructure physique. Pendant des décennies, l'innovation applicative a été l'apanage du cloud ; l'AI-RAN ouvre la même logique d'écosystème développeur au niveau du réseau radio. Les acteurs positionnés sur ce marché -- cabinets de conseil comme Booz Allen, fonds d'investissement industriels comme Cerberus -- anticipent que la valeur ne réside plus dans le transport passif de données, mais dans la capacité à orchestrer des opérations autonomes directement depuis l'infrastructure réseau. La transition vers la 6G, attendue dans la seconde moitié de la décennie, devrait accélérer cette convergence, en faisant du réseau non plus un tuyau, mais une couche fondamentale de l'économie de l'IA physique.

UEL'AI-RAN concerne directement les secteurs industriels européens (fabrication, logistique, santé) en ouvrant la voie à une inférence IA décentralisée sur les réseaux 5G/6G, un enjeu stratégique pour la compétitivité industrielle de l'UE.

InfrastructureOpinion
1 source
L'entrainement decentralise peut aider a resoudre les problemes energetiques de l'IA
4IEEE Spectrum AI 

L'entrainement decentralise peut aider a resoudre les problemes energetiques de l'IA

L'intelligence artificielle consomme des quantités colossales d'énergie, et cette réalité pousse chercheurs et entreprises à repenser en profondeur la manière dont les modèles sont entraînés. Plutôt que de continuer à concentrer le calcul dans d'immenses centres de données centralisés, une approche émerge : la décentralisation de l'entraînement, qui distribue le travail sur un réseau de nœuds indépendants. Des acteurs comme Nvidia, avec son infrastructure Spectrum-XGS Ethernet conçue pour relier des clusters GPU géographiquement séparés, ou Cisco avec son routeur 8223 destiné à connecter des clusters d'IA dispersés, ont déjà commercialisé des solutions dans ce sens. Plus radical encore, Akash Network propose une place de marché pair-à-pair baptisée "l'Airbnb des centres de données" : des entreprises ou particuliers disposant de GPU sous-utilisés les louent à ceux qui en ont besoin, sans construction d'infrastructure supplémentaire. Sur le plan logiciel, l'apprentissage fédéré permet à plusieurs organisations d'entraîner localement un modèle partagé, en n'échangeant que les poids du modèle avec un serveur central qui les agrège, sans jamais centraliser les données brutes. L'enjeu est considérable : l'entraînement représente l'une des phases les plus énergivores du cycle de vie d'un modèle d'IA, et les émissions carbone liées aux grands modèles de langage ne cessent d'augmenter. La décentralisation offre une réponse concrète en permettant au calcul d'aller là où l'énergie existe déjà, qu'il s'agisse d'un serveur dormant dans un laboratoire de recherche ou d'un ordinateur alimenté par des panneaux solaires. Cela évite de surcharger les réseaux électriques en construisant toujours plus de centres de données, et ouvre la voie à un modèle économique inédit où de petits GPU, jusqu'ici négligés, deviennent des ressources valorisables. Comme le souligne Greg Osuri, cofondateur d'Akash Network, le monde passe progressivement d'une dépendance exclusive aux GPU les plus puissants vers une utilisation combinée de matériels plus modestes mais abondants. Cette évolution s'inscrit dans un contexte où les grandes entreprises technologiques, faute d'avancées matérielles suffisamment rapides pour suivre la croissance des modèles, explorent déjà la mutualisation de plusieurs centres de données. L'approche décentralisée soulève néanmoins des défis techniques sérieux : les échanges constants de poids de modèles génèrent des coûts de communication élevés, et la moindre défaillance d'un nœud peut obliger à recommencer un lot d'entraînement entier. Pour y répondre, des chercheurs de Google DeepMind ont développé DiLoCo, un algorithme d'optimisation à faible communication conçu spécifiquement pour l'entraînement distribué. Les solutions nucléaires envisagées par les géants du secteur restent à plusieurs années de distance ; la décentralisation, elle, est déjà opérationnelle.

UELa décentralisation de l'entraînement pourrait alléger la pression sur les réseaux électriques européens, déjà sous tension face à la prolifération des centres de données.

InfrastructureOpinion
1 source