Aller au contenu principal
Moore Threads annonce une forte croissance de ses revenus au T1 et progresse vers un cluster de 100 000 GPU
InfrastructurePandaily2h

Moore Threads annonce une forte croissance de ses revenus au T1 et progresse vers un cluster de 100 000 GPU

1 source couvre ce sujet·Source originale ↗·

Moore Threads (cotée à Shanghai sous le symbole 688795.SH) a publié le 26 avril 2026 ses résultats annuels 2025 et ses chiffres du premier trimestre 2026, confirmant une trajectoire de croissance exceptionnelle. Le fabricant chinois de GPU a enregistré un chiffre d'affaires de 1,505 milliard de yuans (environ 208 millions de dollars) en 2025, soit une hausse de 243 % sur un an, avec un taux de croissance annuel composé dépassant 200 % entre 2022 et 2024. La marge brute atteint 65,57 %, l'une des plus élevées du secteur, pour un bénéfice brut de 987 millions de yuans. Les pertes nettes continuent de se réduire : hors rémunérations en actions, la perte nette s'établit à 648 millions de yuans, en recul de 56,65 % sur un an. La dynamique s'est encore accélérée au premier trimestre 2026, avec un chiffre d'affaires de 738 millions de yuans (+155 % sur un an) et un bénéfice net attributable aux actionnaires redevenu positif à 29 millions de yuans. En mars 2026, la société a décroché une commande de 660 millions de yuans pour son cluster de calcul intelligent KUAE, illustrant sa capacité à déployer des infrastructures à grande échelle.

Ces résultats positionnent Moore Threads comme l'un des acteurs les plus crédibles de l'alternative chinoise à Nvidia. La rentabilité naissante du premier trimestre 2026 est un signal fort : l'entreprise n'est plus seulement en phase d'investissement, elle commence à monétiser concrètement ses GPU auprès d'opérateurs cloud, d'acteurs de l'IA incarnée, de l'éducation intelligente et du secteur manufacturier. Son GPU phare, le MTT S5000, délivre jusqu'à 1 000 TFLOPS de calcul IA dense par carte, rivalisant selon la société avec les produits leaders mondiaux. Le cluster KUAE, construit autour de ce GPU, supporte l'entraînement de modèles à mille milliards de paramètres et a déjà été déployé commercialement avec des métriques atteignant les standards internationaux, ce qui représente une validation technique significative pour un fabricant émergent.

Moore Threads a été fondée en 2020, dans un contexte de tensions croissantes entre les États-Unis et la Chine autour des semi-conducteurs avancés. Les restrictions américaines sur les exportations de GPU Nvidia vers la Chine ont créé un vide que des acteurs comme Moore Threads, Biren ou Cambricon cherchent à combler. La société a investi 1,305 milliard de yuans en R&D en 2025, soit 86,68 % de son chiffre d'affaires, et détient 806 droits de propriété intellectuelle dont 590 brevets d'invention. Elle développe actuellement une nouvelle génération de clusters ultra-larges basée sur son architecture "Huagang", visant des systèmes à 100 000 GPU. Parallèlement, son écosystème logiciel MUSA est conçu pour être compatible avec CUDA, ce qui facilite l'adoption par les développeurs déjà familiers des outils Nvidia. La question centrale pour les prochains trimestres sera de savoir si cette indépendance technologique revendiquée résistera à l'épreuve des déploiements à très grande échelle.

Impact France/UE

La montée en puissance de Moore Threads comme alternative chinoise crédible à Nvidia, dans le contexte des restrictions américaines sur les exportations de GPU, pourrait à terme diversifier les options d'approvisionnement en puces IA pour les entreprises et datacenters européens.

Dans nos dossiers

À lire aussi

Microsoft et les fournisseurs cloud resserrent leur emprise sur les GPU, au détriment des clients IA
1The Information AI 

Microsoft et les fournisseurs cloud resserrent leur emprise sur les GPU, au détriment des clients IA

Microsoft et d'autres grands fournisseurs de cloud redirigent leurs stocks de GPU Nvidia vers leurs équipes internes ou leurs clients enterprise les plus importants, privant les startups d'IA d'un accès fiable aux serveurs dont elles ont besoin. Cette pénurie touche des entreprises pourtant solidement financées, soutenues par des fonds majeurs comme Sequoia Capital, Founders Fund, General Catalyst et Andreessen Horowitz. La situation est suffisamment préoccupante pour qu'Hemant Taneja, directeur général de General Catalyst, ait envoyé un sondage à ses fondateurs en portefeuille pour évaluer leur capacité à accéder aux ressources de calcul. Cette tension sur l'offre a des conséquences directes et immédiates : les startups qui ne parviennent pas à obtenir des GPU auprès des fournisseurs cloud traditionnels se retrouvent contraintes de se tourner vers des alternatives plus coûteuses ou moins stables. Pour des entreprises dont le modèle repose entièrement sur la puissance de calcul, entraînement de modèles, inférence, recherche, une rupture d'approvisionnement peut ralentir le développement de produits et éroder l'avantage concurrentiel acquis grâce aux levées de fonds. Cette situation reflète une tension structurelle dans l'écosystème de l'IA : les hyperscalers comme Microsoft, Google ou Amazon ont massivement investi dans leurs propres capacités d'IA et traitent désormais leurs besoins internes en priorité. Face à une demande mondiale de GPU Nvidia qui dépasse largement l'offre disponible, les petits acteurs se retrouvent en bas de la liste d'attente, dans un marché où l'accès au calcul est devenu aussi stratégique que le capital lui-même.

UELes startups IA européennes, également dépendantes des hyperscalers américains pour l'accès aux GPU Nvidia, sont exposées à la même tension structurelle qui freine leur développement face aux priorités internes des fournisseurs cloud.

InfrastructureOpinion
1 source
NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026
2NVIDIA AI Blog 

NVIDIA et ses partenaires présentent l'avenir de la fabrication pilotée par l'IA à Hannover Messe 2026

NVIDIA et ses partenaires industriels investissent Hannover Messe 2026, le salon phare de l'industrie manufacturière qui se tient du 20 au 24 avril à Hanovre, en Allemagne, pour y présenter ce qu'ils considèrent comme la prochaine révolution de la production : l'usine pilotée par l'intelligence artificielle. Au programme, des démonstrations concrètes couvrant l'informatique accélérée, la simulation physique en temps réel, les agents autonomes et les robots humanoïdes opérant en environnement industriel. Parmi les temps forts, l'annonce de l'Industrial AI Cloud, l'un des plus grands centres d'IA d'Europe, construit en Allemagne par Deutsche Telekom sur infrastructure NVIDIA. Des géants comme SAP, Siemens, ABB, Dassault Systèmes, Cadence ou encore Synopsys y participent, aux côtés d'acteurs spécialisés comme Agile Robots, Wandelbots et PhysicsX. EDAG, prestataire indépendant d'ingénierie, a par ailleurs annoncé le déploiement de sa plateforme de métavers industriel "metys" sur ce cloud souverain, ciblant l'automobile et l'ingénierie lourde. L'enjeu est considérable : l'industrie manufacturière mondiale fait face à une pression simultanée sur les cycles de conception, les coûts opérationnels et la disponibilité de main-d'œuvre qualifiée. L'IA n'est plus une option expérimentale mais un levier de compétitivité immédiat. Les jumeaux numériques à l'échelle d'une usine entière, construits sur les bibliothèques Omniverse de NVIDIA et le standard ouvert OpenUSD, permettent désormais de simuler, tester et optimiser des lignes de production en continu, sans interruption physique. ABB, par exemple, intègre ces outils dans sa suite Genix pour analyser la performance des équipements et accélérer la recherche de causes de pannes via des agents IA. Pour les ingénieurs, la simulation physique en temps réel change radicalement le processus de conception : là où des heures de calcul étaient nécessaires, des résultats apparaissent en secondes. Cette offensive de NVIDIA dans l'industrie s'inscrit dans une stratégie plus large visant à faire de l'informatique accélérée le socle de la transformation industrielle européenne. Le concept de "souveraineté numérique" est central : face aux craintes européennes de dépendance aux clouds américains, l'Industrial AI Cloud positionné en Allemagne répond à une demande politique autant qu'économique. CUDA-X, Omniverse, les modèles ouverts Nemotron et les puces NVIDIA équipent désormais les logiciels des éditeurs les plus influents du secteur, de Siemens à Dassault Systèmes, créant un écosystème interdépendant difficile à contourner. Dell, IBM, Lenovo et PNY complètent l'offre avec des systèmes accélérés déployables de la périphérie jusqu'aux datacenters. La prochaine étape, déjà visible à Hanovre, est l'intégration de robots humanoïdes dans les chaînes de production, un marché où NVIDIA entend jouer un rôle d'infrastructure aussi structurant que dans l'IA générative.

UEL'Industrial AI Cloud inauguré en Allemagne par Deutsche Telekom sur infrastructure NVIDIA, avec la participation de Dassault Systèmes et Siemens, offre aux industriels européens une infrastructure cloud souveraine pour déployer l'IA en production.

InfrastructureActu
1 source
IBM : une gouvernance rigoureuse de l'IA protège les marges des entreprises
3AI News 

IBM : une gouvernance rigoureuse de l'IA protège les marges des entreprises

Rob Thomas, vice-président senior et directeur commercial d'IBM, a récemment exposé une thèse structurante pour les décideurs technologiques : les logiciels suivent une trajectoire prévisible, passant du statut de produit à celui de plateforme, puis d'infrastructure fondamentale. Chaque transition modifie radicalement les règles du jeu. IBM estime que l'intelligence artificielle franchit actuellement ce dernier seuil dans l'architecture des grandes entreprises, passant d'un outil expérimental à une couche opérationnelle centrale, intégrée dans la sécurité réseau, la génération de code, les décisions automatisées et la création de valeur commerciale. Cette évolution a été mise en lumière par la préversion de Claude Mythos, le nouveau modèle d'Anthropic capable, selon l'entreprise, de détecter et exploiter des vulnérabilités logicielles à un niveau comparable aux meilleurs experts humains. Face à ce pouvoir, Anthropic a lancé le projet Glasswing, une initiative sélective visant à placer ces capacités en priorité entre les mains des équipes de défense réseau. Pour IBM, cette réalité crée une exposition opérationnelle majeure pour toute organisation dont la stratégie repose sur des modèles d'IA fermés et propriétaires. Lorsqu'un système autonome peut rédiger des exploits et influencer l'environnement de sécurité global, concentrer la compréhension de ces systèmes chez un petit nombre de fournisseurs devient un risque structurel grave. Les architectures opaques génèrent également des frictions concrètes : connecter un modèle propriétaire à des bases de données vectorielles d'entreprise ou à des lacs de données sensibles crée des goulots d'étranglement de débogage considérables. Quand un modèle produit des sorties anormales ou que le taux d'hallucination augmente, les équipes techniques n'ont pas la visibilité interne nécessaire pour déterminer si l'erreur provient du pipeline de génération augmentée par récupération ou des poids du modèle de base. S'y ajoutent des problèmes de latence liés à l'intégration d'architectures sur site avec des modèles cloud verrouillés, ainsi que des coûts de calcul liés aux appels API continus qui érodent précisément les marges que ces systèmes sont censés préserver. La thèse d'IBM s'inscrit dans un débat plus large sur l'avenir de l'IA en entreprise : à l'ère des modèles-produits, la fermeture était une stratégie défendable et lucrative. À l'ère de l'IA-infrastructure, elle devient un handicap compétitif et sécuritaire. Aucun fournisseur unique ne peut anticiper tous les vecteurs d'attaque, les défaillances système ou les besoins opérationnels d'un écosystème aussi hétérogène que celui des grandes entreprises. IBM plaide donc pour une gouvernance ouverte et inspectable de l'IA, où la priorité n'est plus seulement ce que les modèles peuvent faire, mais comment ils sont construits, audités et améliorés dans la durée. Dans ce contexte, des initiatives comme Glasswing d'Anthropic signalent une prise de conscience sectorielle, mais la question de qui contrôle et comprend réellement ces infrastructures critiques reste entière.

UELa thèse d'IBM sur la gouvernance ouverte de l'IA s'aligne avec les exigences de l'AI Act européen en matière de transparence et d'auditabilité des systèmes IA déployés dans des infrastructures critiques.

InfrastructureOpinion
1 source
☕️ Amazon envisage de vendre ses puces Trainium à des tiers
4Next INpact 

☕️ Amazon envisage de vendre ses puces Trainium à des tiers

Dans sa lettre annuelle aux actionnaires publiée le 9 avril 2026, Andy Jassy, PDG d'Amazon, a ouvert la porte à une révolution discrète : vendre les puces Trainium d'Amazon à des entreprises tierces. Jusqu'ici exclusivement réservées aux infrastructures internes du groupe, notamment à AWS et à la plateforme d'IA Bedrock, ces semiconducteurs représentent selon Jassy une activité dépassant 20 milliards de dollars en 2025, avec une croissance annuelle à trois chiffres. Il va plus loin en estimant que si cette division vendait ses puces à l'extérieur comme le font d'autres acteurs du marché, son chiffre d'affaires annuel approcherait les 50 milliards de dollars. Les puces Trainium 3, annoncées fin 2025, sont déjà quasi intégralement allouées en interne, et une part significative du contingent Trainium 4 est déjà réservée, alors que la production de masse n'est attendue que dans 18 mois. L'enjeu est considérable pour l'ensemble de l'industrie des semi-conducteurs dédiés à l'intelligence artificielle. Si Amazon franchit le pas, le groupe deviendrait un concurrent direct de NVIDIA sur le segment des puces d'entraînement pour l'IA, un marché aujourd'hui dominé très largement par le fabricant de Santa Clara. Pour les entreprises clientes, cela signifierait l'apparition d'une alternative sérieuse, à la fois en termes de performance et de rapport prix/performance. Jassy cite l'exemple de ses processeurs Graviton, lancés en 2018, qui offrent jusqu'à 40 % de meilleur rapport prix/performance que les processeurs x86 et sont aujourd'hui utilisés par 98 % des 1 000 principaux clients EC2 d'Amazon. La trajectoire suggérée pour Trainium est explicitement similaire. Ce mouvement s'inscrit dans une tendance plus large où les grands acteurs du cloud développent leurs propres puces pour réduire leur dépendance à NVIDIA et améliorer leurs économies d'échelle. Google a déjà emprunté ce chemin en proposant ses TPU à des tiers du cloud comme Crusoe, CoreWeave ou Fluidstack, transformant la vente de composants en alternative au modèle classique de location de ressources. Amazon, fort de l'expérience acquise avec Graviton, dispose des capacités industrielles et de la base clients pour répliquer cette stratégie à grande échelle. Jassy prend soin de ménager NVIDIA, affirmant qu'AWS restera une plateforme de choix pour les solutions du fabricant, tout en signalant clairement que les clients cherchent mieux ailleurs et qu'Amazon est prêt à répondre à cette demande. La question n'est plus de savoir si Amazon entrera sur le marché des puces tierces, mais quand.

UEUne alternative sérieuse à NVIDIA pour les puces d'entraînement IA pourrait réduire les coûts d'infrastructure pour les entreprises et laboratoires européens, aujourd'hui dépendants d'un marché dominé par un seul fournisseur.

💬 20 milliards déjà en interne, et Jassy commence à regarder par-dessus la clôture, ça dit quelque chose. Graviton a mis 6 ans pour convaincre 98 % des gros clients EC2, donc Trainium en vente libre c'est pas pour demain matin, mais la direction est posée. Ce qui m'intéresse vraiment c'est si le rapport prix/perf tient hors de l'écosystème AWS, parce que sur du hardware vendu à nu, les comparatifs NVIDIA vont être brutaux.

InfrastructureOpinion
1 source