Aller au contenu principal
InfrastructureArs Technica AI1h

Trump ignore les principales raisons de l'échec de son plan de construction de centres de données pour l'IA

1 source couvre ce sujet·Source originale ↗·

Donald Trump se heurte à de sérieux obstacles dans son ambition de transformer les États-Unis en puissance dominante de l'intelligence artificielle. Après avoir signé plusieurs décrets exécutifs l'année dernière faisant de la construction rapide de centres de données IA une priorité nationale dans la course technologique face à la Chine, le président américain voit ses plans compromis par ses propres politiques commerciales. Selon Bloomberg, près de la moitié des centres de données américains prévus pour 2026 devraient être retardés ou annulés.

Le paradoxe est frappant : les tarifs douaniers agressifs imposés par Trump sur les importations chinoises bloquent précisément les équipements indispensables à la construction de ces infrastructures. Les développeurs ne parviennent pas à s'approvisionner en transformateurs électriques, en appareillages de commutation et en batteries, des composants essentiels pour alimenter les centres de données. Sans cette infrastructure électrique, impossible de faire tourner les milliers de puces GPU que nécessitent les grands modèles d'IA.

Cette situation illustre la tension fondamentale entre le protectionnisme commercial de l'administration Trump et ses ambitions technologiques. La chaîne d'approvisionnement mondiale en équipements électriques industriels reste largement dépendante de fabricants asiatiques, notamment chinois. Alors que Washington cherche à accélérer le déploiement de capacités de calcul pour rester compétitif face à Pékin dans la course à l'IA, ses propres barrières douanières fragilisent la réalisation de cet objectif. Les entreprises tech et les opérateurs de data centers se retrouvent pris en étau entre injonctions politiques contradictoires.

Impact France/UE

Les retards dans le déploiement des capacités de calcul américaines pourraient indirectement ralentir l'accès mondial aux grands modèles IA et renforcer l'argument en faveur d'une souveraineté numérique européenne dans l'infrastructure IA.

À lire aussi

1The Decoder 

Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA

DeepSeek prépare le lancement de sa quatrième génération de modèle d'intelligence artificielle, attendue dans les prochaines semaines, et celui-ci tournera exclusivement sur des puces Huawei. Selon des sources citées par The Decoder, les grands groupes technologiques chinois auraient déjà passé des commandes portant sur des centaines de milliers d'unités de ces processeurs. Nvidia, le fabricant américain qui domine habituellement le marché de l'entraînement et de l'inférence IA, a été écarté des phases de test préliminaires. C'est un signal fort pour l'autonomie technologique chinoise en matière d'IA. Jusqu'ici, les puces Huawei Ascend étaient perçues comme inférieures aux GPU Nvidia H100 et H800, rendant leur adoption à grande échelle difficile pour des modèles de pointe. Si DeepSeek v4 tourne efficacement sur cette infrastructure domestique, cela validerait la montée en puissance de l'écosystème matériel chinois et réduirait concrètement la dépendance vis-à-vis des fabricants américains, une vulnérabilité stratégique majeure depuis les restrictions à l'export imposées par Washington. Ce développement s'inscrit dans un contexte de guerre technologique larvée entre les États-Unis et la Chine. Depuis 2022, les restrictions américaines sur l'exportation de semi-conducteurs avancés vers la Chine ont contraint Huawei et ses partenaires à accélérer massivement leurs efforts de R&D sur les puces Ascend. DeepSeek avait déjà surpris le monde en janvier 2025 avec des modèles très performants entraînés à moindre coût. Si v4 confirme la viabilité des puces Huawei à cette échelle, cela pourrait remodeler les équilibres du secteur mondial de l'IA.

UESi les puces Huawei Ascend s'avèrent compétitives pour l'IA de pointe, cela accélère la fragmentation du marché mondial des semi-conducteurs et renforce la pression sur l'Europe pour développer sa propre souveraineté en matière de hardware IA.

InfrastructureOpinion
1 source
2MIT Technology Review 

Quatre conditions pour installer des centres de données dans l'espace

En janvier 2026, SpaceX a déposé une demande auprès de la Federal Communications Commission américaine pour lancer jusqu'à un million de centres de données en orbite terrestre. L'objectif affiché est de libérer le plein potentiel de l'intelligence artificielle sans aggraver la crise énergétique et hydrique sur Terre. SpaceX n'est pas seul sur ce créneau : Jeff Bezos a déclaré l'an dernier que l'industrie tech se dirigeait vers une informatique à grande échelle dans l'espace, Google prévoit de lancer une constellation test de 80 satellites de calcul dès l'année prochaine, et la startup Starcloud, basée dans l'État de Washington, a déjà mis en orbite en novembre 2024 un satellite équipé d'un GPU Nvidia H100, marquant le premier test orbital d'une puce IA avancée. Starcloud vise des centres de données orbitaux aussi grands que ceux au sol d'ici 2030. L'attrait de l'espace repose sur deux promesses concrètes : une énergie solaire continue en orbite héliosynchrone, sans jamais passer dans l'ombre de la Terre, et une dissipation thermique naturelle dans le vide, sans recourir aux millions de litres d'eau que consomment les data centers terrestres. Ces derniers pèsent déjà lourd sur les réseaux électriques locaux et génèrent des tensions dans les communautés voisines autour du prix des ressources. Avec la baisse continue des coûts de lancement et les méga-fusées comme Starship promises à réduire encore les tarifs, un point de basculement économique devient envisageable. Mais les obstacles techniques restent formidables : quatre défis majeurs se dressent avant toute mise en oeuvre réelle. Le premier est thermique. Contrairement à l'intuition, l'espace n'est pas froid pour un satellite en orbite constamment éclairée : sans convection possible dans le vide, la température des équipements ne descendrait jamais sous 80 °C, largement au-dessus des seuils acceptables pour l'électronique. Évacuer la chaleur par rayonnement seul exige de grandes surfaces radiatives, ce qui alourdit les satellites et complique leur mise en orbite. Yves Durand, ancien directeur technologique de Thales Alenia Space, juge néanmoins le problème surmontable : son étude de faisabilité de 2024 conclut qu'il est possible de construire des data centers de l'ordre du gigawatt en orbite, en s'appuyant sur des systèmes de fluide réfrigérant déjà développés pour les grands satellites de télécommunication. Les trois autres défis, tout aussi cruciaux, concernent la fiabilité des composants face aux radiations cosmiques, la latence des liaisons avec le sol, et le coût de maintenance d'infrastructures inaccessibles physiquement.

UEThales Alenia Space, entreprise franco-italienne, est citée comme acteur clé de la faisabilité technique des data centers orbitaux, positionnant l'Europe comme contributeur potentiel dans ce marché émergent.

InfrastructureOpinion
1 source
3Le Big Data 

Cognichip lève 60 M$ pour confier la conception des puces à l’IA

La startup américaine Cognichip a annoncé avoir levé 60 millions de dollars pour développer une intelligence artificielle capable de concevoir des puces électroniques. Ce tour de table, mené par Seligman Ventures, porte le total des fonds levés par l'entreprise à 93 millions de dollars depuis sa fondation en 2024. Parmi les nouveaux investisseurs figure Lip-Bu Tan, PDG d'Intel, qui rejoint le conseil d'administration aux côtés d'Umesh Padval, associé-gérant chez Seligman. Fondée par Faraj Aalaei, Cognichip développe un modèle d'apprentissage profond spécialisé dans la conception de semi-conducteurs, avec l'ambition affichée de réduire les coûts de développement de plus de 75 % et de diviser par deux les délais de mise sur le marché. L'enjeu est considérable : concevoir une puce moderne prend entre trois et cinq ans, dont deux ans rien que pour la phase de conception, avant même que la fabrication ne démarre. Avec des composants comme le GPU Blackwell de Nvidia intégrant 104 milliards de transistors, la complexité atteint des niveaux qui rendent ce calendrier difficilement tenable. Faraj Aalaei pointe un risque structurel : le marché évolue parfois plus vite que les puces elles-mêmes, rendant un produit potentiellement obsolète avant sa sortie. L'approche de Cognichip consiste à transposer dans le monde du silicium ce que l'IA fait déjà pour les développeurs logiciels, en automatisant les tâches répétitives et en accélérant les itérations de conception. Si les promesses se concrétisent, c'est tout le calendrier de l'industrie des semi-conducteurs qui pourrait être revu. Cognichip opère dans un secteur où les données sont rares et jalousement gardées : contrairement aux développeurs logiciels qui partagent leur code en open source, les concepteurs de puces protègent leurs travaux avec soin. Pour contourner cet obstacle, la startup a constitué ses propres jeux de données en combinant données synthétiques et contenus sous licence, tout en proposant aux fabricants des mécanismes permettant d'entraîner les modèles sur leurs données internes sans les exposer. Elle s'appuie aussi sur des standards ouverts comme l'architecture RISC-V, qu'elle a utilisée lors d'un hackathon avec des étudiants de l'Université d'État de San José. La startup reste cependant discrète sur ses avancées concrètes : aucune puce conçue avec son système n'a encore été présentée publiquement, et ses clients demeurent confidentiels. Elle devra surtout convaincre face aux géants établis du secteur, Synopsys et Cadence Design Systems, qui couvrent déjà l'intégralité du cycle de vie d'un composant avec leurs propres outils d'automatisation.

InfrastructureActu
1 source
4AI Business 

Microsoft investit 10 milliards de dollars dans l'IA et la cybersécurité au Japon

Microsoft a annoncé un investissement de 10 milliards de dollars au Japon, destiné au développement de l'intelligence artificielle et de la cybersécurité dans le pays. Cette enveloppe, l'une des plus importantes jamais engagées par le géant américain dans une seule région, sera déployée sur plusieurs années pour renforcer les infrastructures cloud, les centres de données et les capacités de défense numérique sur le territoire japonais. Cet investissement massif répond à une demande croissante des entreprises et administrations japonaises en matière de solutions IA souveraines et sécurisées. Pour le Japon, qui cherche activement à rattraper son retard numérique face à ses voisins asiatiques, l'arrivée de cette infrastructure représente un levier concret de modernisation industrielle et de renforcement de sa résilience face aux cybermenaces, en nette augmentation dans la région. Cet engagement s'inscrit dans une vague plus large d'investissements technologiques de Microsoft en Asie : l'entreprise a récemment annoncé des engagements similaires en Thaïlande et à Singapour. Cette stratégie régionale reflète la compétition acharnée entre les grands acteurs du cloud — Amazon, Google et Microsoft — pour s'imposer comme partenaires de confiance des gouvernements et grandes entreprises asiatiques à l'heure de l'accélération de l'IA.

InfrastructureActu
1 source