Aller au contenu principal
NVIDIA Vera : quand le CPU devient le cerveau de l’IA autonome
InfrastructureLe Big Data1h

NVIDIA Vera : quand le CPU devient le cerveau de l’IA autonome

1 source couvre ce sujet·Source originale ↗·

Le 16 mars 2026, lors de la conférence GTC 2026, Jensen Huang a présenté le processeur CPU Vera, une puce conçue spécifiquement pour l'intelligence artificielle agentique. Architecturé autour de la plateforme Olympus, Vera embarque 88 cœurs personnalisés basés sur la technologie ARM Neoverse, une mémoire SOCAMM en LPDDR6 atteignant une bande passante de 1,2 To/s, et une conception monolithique qui réduit la latence interne au minimum physiquement possible. Contrairement aux GPU Blackwell et Rubin qui gèrent le traitement parallèle massif, Vera prend en charge l'exécution séquentielle et logique : la planification, la vérification, l'enchaînement de décisions. Sa capacité à manipuler des contextes de plusieurs millions de tokens en temps réel en fait un composant radicalement différent des processeurs x86 traditionnels, jugés trop lents pour les exigences actuelles de l'IA.

L'enjeu est fondamental pour toute entreprise qui cherche à déployer des agents IA dans des workflows réels. Jusqu'ici, les systèmes d'IA buttaient sur le goulot d'étranglement du raisonnement séquentiel : générer du texte rapidement ne suffit pas pour gérer du code complexe, de la logistique ou de la prise de décision multi-étapes. Vera permet à l'IA de passer d'un outil passif à un collaborateur capable d'orchestrer des tâches sur la durée, de corriger ses propres erreurs et d'enchaîner des raisonnements structurés sans latence perceptible. Pour les développeurs et les entreprises, cela ouvre concrètement la voie à des agents autonomes opérationnels dans des environnements de production exigeants, là où les solutions actuelles restent trop fragiles ou trop lentes.

Cette annonce s'inscrit dans une accélération que NVIDIA pilote depuis plusieurs années en construisant une pile matérielle complète pour l'IA. Après avoir dominé l'entraînement des modèles avec ses GPU, puis l'inférence avec la gamme Blackwell, l'entreprise complète aujourd'hui l'architecture avec un CPU qui lui est propre, réduisant sa dépendance aux processeurs Intel et AMD pour les charges de travail IA. Le concept rappelle la distinction cognitive entre Système 1 (rapide, instinctif) et Système 2 (analytique, délibéré) : les GPU couvrent le premier, Vera prend en charge le second. Si l'adoption suit, NVIDIA pourrait imposer une architecture propriétaire de bout en bout pour les data centers orientés agents, ce qui renforcerait encore davantage sa position dominante dans l'infrastructure de l'IA mondiale au moment où la course aux systèmes autonomes s'intensifie chez Google, Microsoft et Meta.

Impact France/UE

Les opérateurs de data centers européens déployant des agents IA devront évaluer une migration vers cette architecture propriétaire NVIDIA pour contourner les goulots d'étranglement du raisonnement séquentiel.

💬 Le point de vue du dev

Le goulot d'étranglement du raisonnement séquentiel, c'est le truc qui fait ramer les agents en prod depuis 2 ans, et Vera s'attaque frontalement à ça. La distinction Système 1/Système 2 appliquée au silicium, c'est bien vu, pas juste du marketing. Le revers, c'est que si t'as besoin de Vera pour que tes agents tournent vraiment, t'achètes le stack NVIDIA complet, de bout en bout, et ils le savent.

À lire aussi

Des retards de construction touchent 40 % des centres de données américains prévus pour 2026
1Ars Technica AI 

Des retards de construction touchent 40 % des centres de données américains prévus pour 2026

Près de 40 % des projets de centres de données américains prévus pour 2026 accuseront un retard de plus de trois mois sur leur calendrier initial, selon une analyse publiée par le Financial Times. Ce constat repose sur des images satellites fournies par la société d'analyse géospatiale SynMax, croisées avec les déclarations publiques et documents de permis compilés par le groupe de recherche IIR Energy. Les projets concernés appartiennent à des géants technologiques comme Microsoft, Oracle et OpenAI. Les responsables de chantiers liés à OpenAI ont notamment signalé un manque critique d'artisans qualifiés, électriciens, monteurs de tuyauteries, pour mener de front plusieurs chantiers simultanément. Ce ralentissement menace directement les ambitions de l'industrie de l'intelligence artificielle, qui a engagé des centaines de milliards de dollars dans la construction de centres de données de plus en plus imposants, chacun pouvant consommer autant d'électricité que des centaines de milliers de foyers américains. Des retards de trois mois ou plus sur des infrastructures aussi stratégiques pèsent lourd : ils décalent la mise en production de capacités de calcul indispensables à l'entraînement et au déploiement des modèles d'IA, retardant par ricochet les lancements de produits et les engagements commerciaux pris auprès des clients cloud. Cette situation s'inscrit dans un contexte de course effrénée aux ressources : la demande de travailleurs spécialisés dans la construction de centres de données a explosé bien plus vite que l'offre disponible. À cela s'ajoutent des pénuries chroniques d'équipements électriques, des délais de raccordement au réseau électrique qui s'étendent parfois sur plusieurs années, et une résistance locale croissante dans certaines communautés qui s'inquiètent de l'impact de ces mégastructures sur la consommation d'eau et d'énergie. La question est désormais de savoir si l'industrie tech saura adapter son rythme d'investissement à la réalité des contraintes physiques et humaines du terrain.

UELes retards dans les capacités de calcul cloud américaines pourraient ralentir l'accès des entreprises européennes aux services d'IA et renchérir les coûts d'infrastructure.

InfrastructureActu
1 source
IA et souveraineté numérique : la France choisit AMD pour son infrastructure ?
2Le Big Data 

IA et souveraineté numérique : la France choisit AMD pour son infrastructure ?

La France a officialisé un partenariat pluriannuel avec AMD, le fabricant américain de semi-conducteurs, pour accélérer son infrastructure nationale en intelligence artificielle. L'accord a été signé au ministère de l'Économie et des Finances à Paris, en présence de trois ministres : Philippe Baptiste (Enseignement supérieur et Recherche), Sébastien Martin (Industrie) et Anne Le Hénanff (Numérique), ainsi que Keith Strier, vice-président senior d'AMD pour les marchés IA. Au coeur du dispositif figure le supercalculateur Alice Recoque, développé avec le GENCI, le CEA et le consortium Jules Verne, et dont la puissance visée atteint un exaflop, soit un milliard de milliards d'opérations par seconde. AMD fournira les briques technologiques aux côtés de Bull, désormais sous contrôle de l'État français, et un centre d'excellence sera chargé d'optimiser l'exploitation de cette infrastructure. Le partenariat inclut également un accès élargi aux programmes de formation du fabricant américain : AMD University Program, AMD AI Developer Program et AMD AI Academy. Ce partenariat représente une tentative concrète de combler le fossé entre excellence académique française et industrialisation de l'IA à grande échelle, un manque chroniquement identifié en Europe. En donnant aux chercheurs, start-up et ingénieurs français un accès direct aux technologies qui alimentent déjà les systèmes d'IA les plus avancés au monde, l'accord vise à accélérer le passage de la recherche au déploiement en production. L'infrastructure Alice Recoque ouvrira par ailleurs des capacités de calcul jusqu'ici inaccessibles à l'échelle nationale, couvrant des domaines aussi variés que la simulation climatique, la recherche scientifique avancée ou les applications à usage militaire. Elle alimentera aussi la future AI Factory France, destinée à structurer l'ensemble de la filière industrielle de l'IA dans le pays. Cette collaboration s'inscrit dans un contexte de course mondiale au calcul haute performance, où la France, comme le reste de l'Europe, peine à peser face aux États-Unis et à la Chine. Le choix d'AMD soulève néanmoins une question de fond sur la souveraineté numérique : peut-on revendiquer une autonomie stratégique en matière d'IA lorsque l'infrastructure repose sur un acteur américain ? La réalité industrielle laisse peu de marges de manoeuvre, les technologies de pointe en semi-conducteurs et en calcul étant aujourd'hui quasi exclusivement détenues par des entreprises non européennes. La France semble avoir arbitré en faveur de la performance immédiate, tout en espérant que cet écosystème d'excellence, de formation et de recherche posera les bases d'une plus grande autonomie technologique à moyen terme.

UELe partenariat engage directement la souveraineté numérique de la France en confiant à AMD les briques technologiques du supercalculateur Alice Recoque (1 exaflop) et de la future AI Factory France, pilier de la filière IA nationale.

💬 AMD pour "souveraineté numérique", c'est un oxymore qui fait mal à lire. Bon, sur le papier, un exaflop avec Alice Recoque et l'accès aux programmes de formation AMD, c'est du concret pour les chercheurs et les startups qui galèrent à avoir du compute. Mais confier les fondations de ta filière IA nationale à un acteur américain en appelant ça de l'autonomie stratégique, faut avoir un sacré sens de l'humour.

InfrastructureOpinion
1 source
OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital
3The Information AI 

OpenAI va dépenser plus de 20 milliards de dollars en puces Cerebras et obtenir une participation au capital

OpenAI a conclu un accord majeur avec Cerebras Systems, le fabricant de puces AI concurrent de Nvidia, pour un montant total dépassant 20 milliards de dollars sur trois ans. Selon plusieurs sources proches du dossier, cette somme, deux fois supérieure aux chiffres précédemment évoqués, servira à financer l'utilisation de serveurs équipés des puces Cerebras. En parallèle, OpenAI s'est engagé à injecter environ 1 milliard de dollars supplémentaires pour financer la construction de centres de données destinés à héberger ses produits d'intelligence artificielle. En contrepartie de ces dépenses, OpenAI recevra des bons de souscription donnant accès à une participation minoritaire dans Cerebras, participation qui pourrait croître proportionnellement aux sommes dépensées. Cet accord constitue une tentative directe de réduire la dépendance d'OpenAI envers Nvidia, dont les puces H100 et H200 dominent le marché de l'infrastructure IA. Pour OpenAI, l'enjeu est double : diversifier ses fournisseurs de calcul tout en pesant sur les coûts d'entraînement et d'inférence de ses modèles, qui représentent plusieurs milliards de dollars par an. Cerebras, connue pour ses puces WSE (Wafer Scale Engine) aux performances élevées sur certaines charges de travail, tentait de lancer son introduction en bourse depuis 2024, un processus retardé notamment par des questions réglementaires liées à ses investisseurs du Moyen-Orient. Cet accord avec OpenAI change radicalement sa trajectoire et sa valorisation potentielle. Il s'inscrit dans un mouvement plus large de l'industrie tech visant à diversifier l'approvisionnement en silicium face à la pénurie et au pouvoir de marché de Nvidia, tandis que des acteurs comme AMD, Intel et des startups comme Groq cherchent également à s'imposer comme alternatives crédibles.

💬 20 milliards sur Cerebras, c'est pas une commande de puces, c'est un message envoyé à Jensen Huang. OpenAI commence enfin à construire un levier de négociation réel, parce qu'être client captif de Nvidia à cette échelle, c'est juste intenable sur la durée. Reste à voir si les WSE tiennent la charge en prod sur des workloads variés, parce que Cerebras performe bien dans certains cas mais c'est pas encore la puce universelle qu'on nous vend.

InfrastructureActu
1 source
Les bons résultats de TSMC confirment l'élan de l'IA
4The Information AI 

Les bons résultats de TSMC confirment l'élan de l'IA

TSMC, le géant taïwanais de la fabrication de puces électroniques, a publié jeudi ses résultats du premier trimestre 2026 avec une croissance de revenus de 40,6%, dépassant le haut de sa fourchette de prévisions. Le PDG C.C. Wei a relevé l'objectif de croissance annuel à plus de 30%, et déclaré que "la demande liée à l'IA continue d'être extrêmement robuste." Cette évaluation repose sur les retours directs des clients de TSMC, au premier rang desquels Nvidia, ainsi que des grandes firmes cloud qui achètent ces puces. Ces résultats constituent un signal fort pour l'ensemble du secteur technologique. Si TSMC, qui fabrique les puces pour pratiquement tous les grands acteurs de l'IA, affiche une telle croissance, cela laisse présager des résultats solides pour les grandes entreprises tech qui publieront leurs chiffres trimestriels plus tard en avril. Les marchés ont déjà anticipé cette dynamique : depuis fin mars, Microsoft a progressé de 18%, Nvidia de 20%, et le Nasdaq dans son ensemble de 16%. La vigueur de TSMC s'inscrit dans un contexte de multiplication des signaux haussiers autour de l'IA, malgré les incertitudes macroéconomiques mondiales. Le fabricant taïwanais occupe une position unique dans la chaîne de valeur : il est le maillon indispensable entre les concepteurs de puces comme Nvidia ou AMD et les déploiements massifs des hyperscalers comme Microsoft Azure, Google Cloud ou Amazon AWS. La robustesse de sa demande suggère que les investissements en infrastructure IA ne montrent aucun signe de ralentissement, alimentant l'optimisme avant une saison de résultats qui s'annonce décisive pour valider, ou nuancer, l'enthousiasme des marchés.

InfrastructureOpinion
1 source