Aller au contenu principal
Sans crier gare, la Chine sort un supercalculateur de 2,47 ExaFLOPS… sans GPU
InfrastructureNext INpact36min

Sans crier gare, la Chine sort un supercalculateur de 2,47 ExaFLOPS… sans GPU

Résumé IASource uniqueImpact UETake éditorial
Source originale ↗·

La Chine vient de révéler, sans aucune communication officielle, l'existence d'un supercalculateur exascale baptisé LineShine, hébergé au Centre National de Supercalcul de Shenzhen (NSCC-SZ). La machine atteint une puissance théorique de 2,47 ExaFLOPS, dont 1,2 ExaFLOPS ont été effectivement mesurés lors de son utilisation pour entraîner un modèle de type MLIP (Machine Learning Interatomic Potentials), soit à peine un quart de sa capacité maximale. LineShine embarque 12,4 millions de cœurs de calcul et 1 310 téraoctets de mémoire HBM. Ce qui frappe immédiatement les observateurs : cette architecture est entièrement scalaire, sans aucun GPU. L'information n'est pas venue d'un communiqué de presse mais d'une publication scientifique parue il y a deux semaines, repérée et relayée par Stéphane Requena, directeur technique du Genci (Grand Équipement National de Calcul Intensif), sur LinkedIn.

Si LineShine était soumis au classement Top500, référence mondiale des supercalculateurs, il se retrouverait au coude à coude avec El Capitan, le numéro un mondial actuellement en service aux États-Unis. L'enjeu dépasse la performance brute : ce supercalculateur démontre que la Chine est capable de construire des infrastructures de calcul de premier rang mondial sans dépendre des GPU haute performance de NVIDIA, dont l'exportation vers la Chine est soumise à embargo américain. L'absence de GPU dans une machine de cette envergure représente un choix architectural délibéré et une réponse technologique directe aux restrictions imposées par Washington. Pour les acteurs de l'IA et de la simulation scientifique, c'est la preuve que les restrictions d'exportation n'ont pas bloqué la montée en puissance chinoise, mais l'ont orientée vers des solutions souveraines.

La Chine ne participe plus au Top500 depuis plusieurs années, dans un contexte de tensions croissantes avec les États-Unis autour des technologies stratégiques. Depuis les premières vagues de sanctions, Pékin a systématiquement développé ses propres alternatives matérielles et logicielles, tout en maintenant le silence sur ses capacités réelles. LineShine s'inscrit dans cette logique d'autonomie technologique assumée : les avancées chinoises en supercalcul se découvrent désormais à travers des publications académiques, non par des annonces officielles. Les prochains mois pourraient révéler d'autres systèmes de cette génération, alors que la course au calcul exascale s'accélère aussi bien pour la simulation climatique, la recherche pharmaceutique que pour l'entraînement de modèles d'intelligence artificielle de grande taille.

Impact France/UE

La découverte a été relayée par Stéphane Requena, directeur technique du GENCI (institution française de calcul intensif), signalant que les sanctions américaines n'ont pas freiné la montée en puissance chinoise, un avertissement stratégique pour la souveraineté technologique européenne en matière d'infrastructure HPC.

💬 Le point de vue du dev

2,47 ExaFLOPS sans un seul GPU, et on l'apprend par une publication académique, pas un communiqué de presse. L'embargo américain n'a pas freiné la Chine, il l'a juste orientée vers ses propres solutions, et visiblement ça tient la route. Ce qui devrait vraiment inquiéter l'Europe, c'est qu'on ne sait pas combien d'autres machines comme ça existent déjà.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

L'IA a besoin d'une infrastructure de données solide pour créer de la valeur
1MIT Technology Review 

L'IA a besoin d'une infrastructure de données solide pour créer de la valeur

L'intelligence artificielle s'installe durablement dans les entreprises : selon une enquête récente, la moitié des organisations utilisaient déjà l'IA dans au moins trois fonctions métier d'ici fin 2025, que ce soit en finance, dans les chaînes d'approvisionnement, les ressources humaines ou le service client. Mais à mesure que ces systèmes deviennent centraux dans les opérations quotidiennes, un obstacle inattendu émerge. Ce n'est ni la puissance de calcul ni les performances des modèles qui freinent le déploiement, mais la qualité et surtout le contexte des données sur lesquelles reposent ces systèmes. Irfan Khan, président et directeur produit de SAP Data & Analytics, résume le problème : "L'IA produit des résultats très rapidement, mais sans contexte elle ne peut pas exercer un bon jugement -- et c'est le jugement qui crée de la valeur pour l'entreprise. La vitesse sans jugement ne sert à rien, elle peut même nuire." L'enjeu est concret et mesurable. Deux entreprises qui utilisent l'IA pour gérer des ruptures dans leur chaîne d'approvisionnement peuvent traiter les mêmes données -- niveaux de stock, délais, scores fournisseurs -- mais arriver à des décisions radicalement différentes. Celle qui enrichit ses données avec du contexte métier (quels clients sont stratégiques, quels compromis sont acceptables en cas de pénurie, quelles obligations contractuelles s'appliquent) prendra des décisions alignées sur ses priorités réelles. L'autre produira des réponses techniquement correctes mais opérationnellement défaillantes. Les systèmes d'IA n'affichent pas seulement de l'information, ils agissent dessus -- ce qui rend toute erreur de contexte potentiellement coûteuse. Historiquement, des experts humains compensaient ce manque de contexte en interprétant les données brutes. Avec l'automatisation croissante, ce filet de sécurité disparaît. La réponse architecturale qui s'impose est celle du "data fabric", une couche d'infrastructure qui ne se contente pas d'intégrer les données mais préserve leur signification à travers les systèmes, les applications et les environnements cloud. Pendant deux décennies, les entreprises ont massivement investi dans des entrepôts de données centralisés -- utiles pour les rapports et les tableaux de bord, mais appauvrissants pour le sens métier des données. Le mouvement actuel est inverse : il s'agit de connecter les informations là où elles se trouvent tout en conservant les métadonnées, les politiques et les relations qui décrivent comment l'entreprise fonctionne réellement. SAP, qui positionne ses solutions d'analytique autour de cette vision, n'est pas seul sur ce terrain : toute l'industrie des données se repositionne pour répondre à une exigence nouvelle -- celle d'une IA qui ne se contente pas d'aller vite, mais qui va dans la bonne direction.

UESAP étant une entreprise allemande leader du logiciel d'entreprise, son positionnement sur le 'data fabric' influence directement les choix d'infrastructure des grandes organisations européennes qui déploient l'IA.

InfrastructureActu
1 source
Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA
2The Decoder 

Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA

DeepSeek prépare le lancement de sa quatrième génération de modèle d'intelligence artificielle, attendue dans les prochaines semaines, et celui-ci tournera exclusivement sur des puces Huawei. Selon des sources citées par The Decoder, les grands groupes technologiques chinois auraient déjà passé des commandes portant sur des centaines de milliers d'unités de ces processeurs. Nvidia, le fabricant américain qui domine habituellement le marché de l'entraînement et de l'inférence IA, a été écarté des phases de test préliminaires. C'est un signal fort pour l'autonomie technologique chinoise en matière d'IA. Jusqu'ici, les puces Huawei Ascend étaient perçues comme inférieures aux GPU Nvidia H100 et H800, rendant leur adoption à grande échelle difficile pour des modèles de pointe. Si DeepSeek v4 tourne efficacement sur cette infrastructure domestique, cela validerait la montée en puissance de l'écosystème matériel chinois et réduirait concrètement la dépendance vis-à-vis des fabricants américains, une vulnérabilité stratégique majeure depuis les restrictions à l'export imposées par Washington. Ce développement s'inscrit dans un contexte de guerre technologique larvée entre les États-Unis et la Chine. Depuis 2022, les restrictions américaines sur l'exportation de semi-conducteurs avancés vers la Chine ont contraint Huawei et ses partenaires à accélérer massivement leurs efforts de R&D sur les puces Ascend. DeepSeek avait déjà surpris le monde en janvier 2025 avec des modèles très performants entraînés à moindre coût. Si v4 confirme la viabilité des puces Huawei à cette échelle, cela pourrait remodeler les équilibres du secteur mondial de l'IA.

UESi les puces Huawei Ascend s'avèrent compétitives pour l'IA de pointe, cela accélère la fragmentation du marché mondial des semi-conducteurs et renforce la pression sur l'Europe pour développer sa propre souveraineté en matière de hardware IA.

InfrastructureOpinion
1 source
3MarkTechPost 

CPUs, GPUs, TPUs, NPUs et LPUs : cinq architectures de calcul IA que tout ingénieur doit connaître

L'intelligence artificielle moderne ne repose plus sur un seul type de processeur, mais sur un écosystème de puces spécialisées aux compromis bien distincts. Les CPU (processeurs centraux), architecture historique de l'informatique, restent indispensables pour l'orchestration des systèmes, la gestion des flux de données et la coordination des autres accélérateurs, mais leurs cœurs peu nombreux et leur traitement séquentiel les rendent inadaptés aux calculs massivement parallèles que nécessite l'IA à grande échelle. Les GPU (processeurs graphiques), conçus à l'origine pour le rendu vidéo, sont devenus la colonne vertébrale de l'entraînement des modèles de deep learning grâce à leurs milliers de cœurs capables d'exécuter simultanément les multiplications matricielles et opérations tensorielles au cœur des réseaux de neurones, une révolution rendue possible par l'introduction de CUDA par Nvidia. À ces deux architectures s'ajoutent les TPU (Tensor Processing Units) de Google, conçus spécifiquement pour l'exécution de réseaux de neurones avec un flux de données optimisé, les NPU (Neural Processing Units) intégrés dans les appareils grand public pour une inférence locale économe en énergie, et les LPU (Language Processing Units) de Groq, une innovation récente promettant une inférence nettement plus rapide et plus efficiente pour les grands modèles de langage. Ces distinctions architecturales ont des conséquences directes pour les entreprises et les ingénieurs qui déploient des systèmes d'IA en production. Choisir la mauvaise puce signifie payer trop cher pour de l'entraînement, subir une latence excessive en inférence, ou gaspiller de l'énergie sur des appareils embarqués. Les GPU restent le choix dominant pour l'entraînement intensif, mais leur coût élevé et leur disponibilité limitée poussent les acteurs à explorer des alternatives. Les NPU, désormais intégrés dans les puces Apple Silicon, Qualcomm Snapdragon ou Intel Core Ultra, permettent d'exécuter des modèles directement sur les terminaux sans cloud, réduisant latence et risques liés à la confidentialité. Les LPU de Groq, eux, ciblent précisément le goulot d'étranglement de l'inférence en production pour les LLM, avec des débits annoncés plusieurs fois supérieurs aux GPU traditionnels. Cette diversification des architectures de calcul reflète une transition plus profonde de l'industrie : le passage du calcul généraliste à l'optimisation par charge de travail. Pendant des décennies, la loi de Moore et les CPU universels ont suffi. Aujourd'hui, la demande explosive en puissance de calcul pour l'IA, portée par des modèles de plus en plus massifs comme GPT-4, Gemini ou Llama 3, dépasse ce que les architectures généralistes peuvent absorber efficacement. Google a investi massivement dans ses TPU v4 et v5 pour sécuriser son indépendance vis-à-vis de Nvidia, tandis que des startups comme Groq, Cerebras ou Tenstorrent parient sur des designs radicalement différents. Pour tout ingénieur IA, comprendre ces architectures n'est plus une curiosité académique : c'est une compétence opérationnelle pour concevoir des systèmes performants, économiques et adaptés aux contraintes réelles du déploiement.

UEL'intégration des NPU dans les appareils grand public (Apple Silicon, Qualcomm Snapdragon, Intel Core Ultra) permet aux entreprises et utilisateurs européens d'exécuter des modèles en local, réduisant la dépendance au cloud et les risques liés au RGPD.

InfrastructureOpinion
1 source
Moore Threads annonce une forte croissance de ses revenus au T1 et progresse vers un cluster de 100 000 GPU
4Pandaily 

Moore Threads annonce une forte croissance de ses revenus au T1 et progresse vers un cluster de 100 000 GPU

Moore Threads (cotée à Shanghai sous le symbole 688795.SH) a publié le 26 avril 2026 ses résultats annuels 2025 et ses chiffres du premier trimestre 2026, confirmant une trajectoire de croissance exceptionnelle. Le fabricant chinois de GPU a enregistré un chiffre d'affaires de 1,505 milliard de yuans (environ 208 millions de dollars) en 2025, soit une hausse de 243 % sur un an, avec un taux de croissance annuel composé dépassant 200 % entre 2022 et 2024. La marge brute atteint 65,57 %, l'une des plus élevées du secteur, pour un bénéfice brut de 987 millions de yuans. Les pertes nettes continuent de se réduire : hors rémunérations en actions, la perte nette s'établit à 648 millions de yuans, en recul de 56,65 % sur un an. La dynamique s'est encore accélérée au premier trimestre 2026, avec un chiffre d'affaires de 738 millions de yuans (+155 % sur un an) et un bénéfice net attributable aux actionnaires redevenu positif à 29 millions de yuans. En mars 2026, la société a décroché une commande de 660 millions de yuans pour son cluster de calcul intelligent KUAE, illustrant sa capacité à déployer des infrastructures à grande échelle. Ces résultats positionnent Moore Threads comme l'un des acteurs les plus crédibles de l'alternative chinoise à Nvidia. La rentabilité naissante du premier trimestre 2026 est un signal fort : l'entreprise n'est plus seulement en phase d'investissement, elle commence à monétiser concrètement ses GPU auprès d'opérateurs cloud, d'acteurs de l'IA incarnée, de l'éducation intelligente et du secteur manufacturier. Son GPU phare, le MTT S5000, délivre jusqu'à 1 000 TFLOPS de calcul IA dense par carte, rivalisant selon la société avec les produits leaders mondiaux. Le cluster KUAE, construit autour de ce GPU, supporte l'entraînement de modèles à mille milliards de paramètres et a déjà été déployé commercialement avec des métriques atteignant les standards internationaux, ce qui représente une validation technique significative pour un fabricant émergent. Moore Threads a été fondée en 2020, dans un contexte de tensions croissantes entre les États-Unis et la Chine autour des semi-conducteurs avancés. Les restrictions américaines sur les exportations de GPU Nvidia vers la Chine ont créé un vide que des acteurs comme Moore Threads, Biren ou Cambricon cherchent à combler. La société a investi 1,305 milliard de yuans en R&D en 2025, soit 86,68 % de son chiffre d'affaires, et détient 806 droits de propriété intellectuelle dont 590 brevets d'invention. Elle développe actuellement une nouvelle génération de clusters ultra-larges basée sur son architecture "Huagang", visant des systèmes à 100 000 GPU. Parallèlement, son écosystème logiciel MUSA est conçu pour être compatible avec CUDA, ce qui facilite l'adoption par les développeurs déjà familiers des outils Nvidia. La question centrale pour les prochains trimestres sera de savoir si cette indépendance technologique revendiquée résistera à l'épreuve des déploiements à très grande échelle.

UELa montée en puissance de Moore Threads comme alternative chinoise crédible à Nvidia, dans le contexte des restrictions américaines sur les exportations de GPU, pourrait à terme diversifier les options d'approvisionnement en puces IA pour les entreprises et datacenters européens.

InfrastructureOpinion
1 source