Aller au contenu principal
136 cœurs, 3 nm… Arm dévoile une première puce bien à lui, et elle dépote
InfrastructureFrandroid6sem

136 cœurs, 3 nm… Arm dévoile une première puce bien à lui, et elle dépote

Résumé IASource uniqueImpact UE
Source originale ↗·

Arm, connu jusqu'ici comme un pure-player de la propriété intellectuelle vendant ses architectures de processeurs aux plus grands fabricants de puces, franchit une étape historique en dévoilant sa toute première puce maison. Conçue en partenariat avec Meta, cette puce inédite embarque 136 cœurs et bénéficie d'une gravure en 3 nanomètres, la plaçant d'emblée dans le haut du spectre technologique actuel.

Ce virage stratégique est significatif pour l'ensemble du secteur des semi-conducteurs. En passant de vendeur de licences à concepteur de silicium intégré, Arm entre en concurrence directe avec ses propres clients — Apple, Qualcomm, Samsung ou encore MediaTek — qui s'appuient tous sur ses architectures. Le partenariat avec Meta souligne par ailleurs la demande croissante des géants du numérique pour des puces sur mesure, adaptées à leurs besoins spécifiques en IA agentique.

La puce est explicitement positionnée pour les charges de travail d'intelligence artificielle agentique, c'est-à-dire des agents autonomes capables de planifier et d'exécuter des tâches complexes sans supervision humaine constante. Avec 136 cœurs gravés en 3 nm, cette architecture offre une densité de calcul et une efficacité énergétique adaptées aux infrastructures de centres de données nouvelle génération, là où la puissance brute doit se concilier avec des contraintes thermiques strictes.

Ce lancement marque potentiellement le début d'une nouvelle ère pour Arm, qui pourrait progressivement élargir son portefeuille de produits finis. La collaboration avec Meta pourrait n'être qu'un premier jalon avant d'autres partenariats similaires avec des hyperscalers cherchant à s'affranchir partiellement des solutions génériques de Nvidia ou AMD.

Impact France/UE

Le pivot d'Arm vers le hardware souverain représente un signal fort pour l'industrie des semi-conducteurs, alors que l'Europe cherche à renforcer sa propre capacité de production via le Chips Act européen.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

FlashQLA : Alibaba dévoile une arme secrète qui accélère l’IA jusqu’à 3 fois
1Le Big Data 

FlashQLA : Alibaba dévoile une arme secrète qui accélère l’IA jusqu’à 3 fois

L'équipe Qwen d'Alibaba a présenté le 29 avril 2026 FlashQLA, une bibliothèque de noyaux d'attention linéaire haute performance construite sur TileLang, un langage de programmation optimisé pour le calcul parallèle. Les chiffres avancés sont nets : la propagation avant des modèles est accélérée de 2 à 3 fois, tandis que la rétropropagation, phase critique de l'entraînement, voit sa vitesse pratiquement doubler. L'architecture repose sur une division des calculs en deux noyaux distincts plutôt qu'un bloc unifié, ce qui se traduit par une légère surcharge mémoire mais des performances réelles supérieures sur machines modestes. La rétropropagation bénéficie en particulier d'un pipeline en 16 étapes optimisé au niveau du warp avec des contraintes mémoire très faibles. Ce qui distingue FlashQLA des solutions concurrentes est sa cible explicite : les appareils personnels et l'edge computing, pas les data centers. Alibaba positionne cet outil pour faire tourner des modèles d'IA agentielle directement sur des ordinateurs portables et machines locales, réduisant la dépendance aux serveurs cloud. Les gains sont particulièrement marqués pour les petits modèles et les tâches à contexte long, deux cas d'usage centraux pour l'IA embarquée. Pour les développeurs et les entreprises qui déploient des agents IA en production, cela signifie des coûts d'inférence réduits, des latences plus faibles et une meilleure utilisation de la mémoire sans changement de matériel. FlashQLA s'inscrit dans une tendance de fond qui traverse l'ensemble de l'industrie depuis 2024 : la course à l'efficacité des modèles en dehors du cloud. Face à des coûts d'inférence toujours élevés et à des préoccupations croissantes autour de la souveraineté des données, les grandes entreprises technologiques cherchent à rapprocher la puissance de calcul de l'utilisateur final. Alibaba, via son équipe Qwen déjà connue pour ses modèles ouverts compétitifs face à GPT-4, renforce ici sa position dans l'écosystème open source en proposant une brique d'optimisation bas niveau directement utilisable par la communauté. La publication fait suite à plusieurs annonces similaires dans l'industrie, dont FlashAttention de Tri Dao ou les optimisations kernel de Meta pour Llama. Si FlashQLA tient ses promesses à l'échelle, il pourrait accélérer la migration d'une partie des charges d'inférence vers le local, rééquilibrant durablement le rapport entre cloud centralisé et calcul distribué.

UEL'axe edge computing et réduction de dépendance au cloud s'aligne indirectement avec les objectifs de souveraineté numérique européenne, mais aucun impact direct sur la France ou l'UE n'est identifiable.

InfrastructureOpinion
1 source
Arm entre dans l'arène du silicium : le CPU AGI prêt à propulser l'IA agentique, mais au milieu d'une forte concurrence
2ZDNET FR 

Arm entre dans l'arène du silicium : le CPU AGI prêt à propulser l'IA agentique, mais au milieu d'une forte concurrence

Arm, le concepteur britannique de puces dont l'architecture équipe la quasi-totalité des smartphones mondiaux, a annoncé le lancement de son propre processeur destiné aux data centers : l'Arm AGI CPU. Contrairement à son modèle historique de simple vente de licences d'architecture, Arm entre cette fois directement sur le marché du silicium, ciblant spécifiquement les charges de travail liées à l'IA agentique — ces systèmes autonomes capables d'enchaîner des tâches complexes sans intervention humaine. Cette annonce marque un tournant stratégique majeur pour l'industrie. L'IA agentique exige des processeurs capables de gérer des flux de raisonnement continus et intensifs, un segment jusqu'ici dominé par les GPU de Nvidia et les puces custom de Google (TPU) ou Amazon (Trainium). En proposant un CPU optimisé pour ces usages, Arm s'attaque à un marché en croissance explosive, tout en challengeant ses propres clients comme Qualcomm et Apple qui s'appuient sur ses licences. Le mouvement s'inscrit dans un contexte de consolidation verticale accélérée : Meta, Microsoft et Amazon développent leurs propres puces, tandis que SoftBank — propriétaire d'Arm depuis 2016 et reintroduit en bourse en 2023 — pousse à une montée en valeur ajoutée. La concurrence sera néanmoins rude face à des acteurs comme AMD, Intel et surtout Nvidia, dont l'emprise sur l'infrastructure IA reste considérable. Les prochains mois révéleront si Arm peut transformer son omniprésence architecturale en avantage commercial direct sur ce segment stratégique.

UEArm étant une entreprise britannique stratégique soutenue par SoftBank, son entrée sur le marché des processeurs pour data centers pourrait renforcer l'écosystème européen des semi-conducteurs et influencer les choix d'infrastructure IA des acteurs cloud opérant en Europe.

InfrastructureOpinion
1 source
Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA
3The Decoder 

Deepseek v4 tournerait entièrement sur des puces Huawei, une avancée majeure pour l'indépendance de la Chine en IA

DeepSeek prépare le lancement de sa quatrième génération de modèle d'intelligence artificielle, attendue dans les prochaines semaines, et celui-ci tournera exclusivement sur des puces Huawei. Selon des sources citées par The Decoder, les grands groupes technologiques chinois auraient déjà passé des commandes portant sur des centaines de milliers d'unités de ces processeurs. Nvidia, le fabricant américain qui domine habituellement le marché de l'entraînement et de l'inférence IA, a été écarté des phases de test préliminaires. C'est un signal fort pour l'autonomie technologique chinoise en matière d'IA. Jusqu'ici, les puces Huawei Ascend étaient perçues comme inférieures aux GPU Nvidia H100 et H800, rendant leur adoption à grande échelle difficile pour des modèles de pointe. Si DeepSeek v4 tourne efficacement sur cette infrastructure domestique, cela validerait la montée en puissance de l'écosystème matériel chinois et réduirait concrètement la dépendance vis-à-vis des fabricants américains, une vulnérabilité stratégique majeure depuis les restrictions à l'export imposées par Washington. Ce développement s'inscrit dans un contexte de guerre technologique larvée entre les États-Unis et la Chine. Depuis 2022, les restrictions américaines sur l'exportation de semi-conducteurs avancés vers la Chine ont contraint Huawei et ses partenaires à accélérer massivement leurs efforts de R&D sur les puces Ascend. DeepSeek avait déjà surpris le monde en janvier 2025 avec des modèles très performants entraînés à moindre coût. Si v4 confirme la viabilité des puces Huawei à cette échelle, cela pourrait remodeler les équilibres du secteur mondial de l'IA.

UESi les puces Huawei Ascend s'avèrent compétitives pour l'IA de pointe, cela accélère la fragmentation du marché mondial des semi-conducteurs et renforce la pression sur l'Europe pour développer sa propre souveraineté en matière de hardware IA.

InfrastructureOpinion
1 source
Anthropic en négociation pour acheter des puces IA à une startup britannique
4The Information AI 

Anthropic en négociation pour acheter des puces IA à une startup britannique

Anthropic est en discussions avec la startup londonienne Fractile pour acquérir des puces d'inférence destinées à faire tourner ses modèles d'IA. Selon deux sources proches des dirigeants de Fractile, les pourparlers portent sur un approvisionnement qui deviendrait effectif l'année prochaine, une fois les puces disponibles. Anthropic, qui commercialise les modèles Claude, s'appuie aujourd'hui sur trois fournisseurs principaux : Google, Amazon et Nvidia. Ce potentiel contrat avec Fractile constituerait donc une quatrième source d'approvisionnement en matériel. L'enjeu est stratégique : les ventes d'Anthropic connaissent une croissance explosive qui met sous pression les serveurs existants, et les dépenses de la société en infrastructure sont projetées à plusieurs dizaines de milliards de dollars par an. En diversifiant ses fournisseurs, Anthropic se dote d'un levier de négociation face à des géants comme Nvidia, dont les puces restent en forte demande. Les puces d'inférence de Fractile sont conçues pour faire tourner des modèles d'IA de manière plus efficiente, ce qui peut réduire les coûts opérationnels à grande échelle. Cette démarche s'inscrit dans une tendance de fond : les grands laboratoires d'IA cherchent à réduire leur dépendance à Nvidia, dont les GPU H100 et Blackwell sont devenus un goulot d'étranglement mondial. Des acteurs comme Google avec ses TPU, ou Amazon avec ses puces Trainium, développent déjà leurs alternatives en interne. Fractile, startup britannique encore confidentielle, tente de s'imposer sur ce marché émergent des puces d'inférence spécialisées, où la compétition s'intensifie rapidement.

UEL'émergence de Fractile, startup londonienne, comme fournisseur potentiel d'Anthropic illustre la capacité des entreprises européennes à s'imposer dans le marché stratégique des puces d'inférence IA, même si l'impact direct sur la France et l'UE reste indirect à ce stade.

💬 Anthropic n'achète pas des puces, il achète du pouvoir de négociation face à Nvidia. Avoir un quatrième fournisseur dans la poche, c'est surtout une façon de ne plus être otage des GPU H100 qui manquent à tout le monde. Reste à voir si Fractile peut vraiment tenir la cadence quand Anthropic va en avoir besoin.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour