Aller au contenu principal
Le nouveau rack serveur de Nvidia accueillera des puces IA de ses concurrents
InfrastructureThe Information AI6sem

Le nouveau rack serveur de Nvidia accueillera des puces IA de ses concurrents

Résumé IASource uniqueImpact UE
Source originale ↗·

Nvidia a présenté lors de sa conférence annuelle GTC un nouveau rack serveur conçu pour accueillir non seulement ses propres puces, mais aussi celles de ses concurrents directs sur le marché de l'IA. Une stratégie audacieuse qui lui permet de monétiser la concurrence plutôt que de la subir.

Cette annonce illustre la capacité de Nvidia à se repositionner face à une compétition croissante dans le segment des puces IA. En contrôlant l'infrastructure réseau qui relie les processeurs au sein du rack, l'entreprise conserve un rôle central dans les déploiements data center, quelle que soit la marque des accélérateurs utilisés.

Le cœur du dispositif repose sur la technologie de networking intégrée au rack, qui assure une communication rapide et fiable entre les puces — un point critique pour les charges de travail IA distribuées. Selon deux sources proches du projet, cette interconnexion est conçue pour fonctionner avec des puces tierces sans dégradation des performances.

Cette approche rappelle la stratégie de Nvidia avec son écosystème CUDA : plutôt que de s'opposer frontalement aux alternatives (AMD, Intel, startups comme Groq ou Cerebras), l'entreprise crée une dépendance sur la couche infrastructure. Le marché des racks et du networking représente ainsi un nouveau levier de revenus, indépendant de la bataille pour la suprématie des GPU.

Impact France/UE

Les entreprises européennes qui achètent des infrastructures IA pourront bénéficier de racks interopérables, réduisant potentiellement la dépendance à un seul fournisseur de puces.

Dans nos dossiers

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

1ZDNET FR 

Le marché des serveurs IA change d’ère : Vera Rubin place NVIDIA au centre du jeu

NVIDIA a dévoilé l'architecture Vera Rubin lors de la GTC 2026, marquant un tournant dans le marché des serveurs IA. Cette nouvelle génération positionne NVIDIA au cœur d'une transition vers des infrastructures intégrées, conçues comme de véritables « usines à IA ».

InfrastructureOpinion
1 source
2Le Big Data 

NVIDIA Vera : quand le CPU devient le cerveau de l’IA autonome

Le 16 mars 2026, lors de la conférence GTC 2026, Jensen Huang a présenté le processeur CPU Vera, une puce conçue spécifiquement pour l'intelligence artificielle agentique. Architecturé autour de la plateforme Olympus, Vera embarque 88 cœurs personnalisés basés sur la technologie ARM Neoverse, une mémoire SOCAMM en LPDDR6 atteignant une bande passante de 1,2 To/s, et une conception monolithique qui réduit la latence interne au minimum physiquement possible. Contrairement aux GPU Blackwell et Rubin qui gèrent le traitement parallèle massif, Vera prend en charge l'exécution séquentielle et logique : la planification, la vérification, l'enchaînement de décisions. Sa capacité à manipuler des contextes de plusieurs millions de tokens en temps réel en fait un composant radicalement différent des processeurs x86 traditionnels, jugés trop lents pour les exigences actuelles de l'IA. L'enjeu est fondamental pour toute entreprise qui cherche à déployer des agents IA dans des workflows réels. Jusqu'ici, les systèmes d'IA buttaient sur le goulot d'étranglement du raisonnement séquentiel : générer du texte rapidement ne suffit pas pour gérer du code complexe, de la logistique ou de la prise de décision multi-étapes. Vera permet à l'IA de passer d'un outil passif à un collaborateur capable d'orchestrer des tâches sur la durée, de corriger ses propres erreurs et d'enchaîner des raisonnements structurés sans latence perceptible. Pour les développeurs et les entreprises, cela ouvre concrètement la voie à des agents autonomes opérationnels dans des environnements de production exigeants, là où les solutions actuelles restent trop fragiles ou trop lentes. Cette annonce s'inscrit dans une accélération que NVIDIA pilote depuis plusieurs années en construisant une pile matérielle complète pour l'IA. Après avoir dominé l'entraînement des modèles avec ses GPU, puis l'inférence avec la gamme Blackwell, l'entreprise complète aujourd'hui l'architecture avec un CPU qui lui est propre, réduisant sa dépendance aux processeurs Intel et AMD pour les charges de travail IA. Le concept rappelle la distinction cognitive entre Système 1 (rapide, instinctif) et Système 2 (analytique, délibéré) : les GPU couvrent le premier, Vera prend en charge le second. Si l'adoption suit, NVIDIA pourrait imposer une architecture propriétaire de bout en bout pour les data centers orientés agents, ce qui renforcerait encore davantage sa position dominante dans l'infrastructure de l'IA mondiale au moment où la course aux systèmes autonomes s'intensifie chez Google, Microsoft et Meta.

UELes opérateurs de data centers européens déployant des agents IA devront évaluer une migration vers cette architecture propriétaire NVIDIA pour contourner les goulots d'étranglement du raisonnement séquentiel.

💬 Le goulot d'étranglement du raisonnement séquentiel, c'est le truc qui fait ramer les agents en prod depuis 2 ans, et Vera s'attaque frontalement à ça. La distinction Système 1/Système 2 appliquée au silicium, c'est bien vu, pas juste du marketing. Le revers, c'est que si t'as besoin de Vera pour que tes agents tournent vraiment, t'achètes le stack NVIDIA complet, de bout en bout, et ils le savent.

InfrastructureOpinion
1 source
La prochaine puce de Nvidia serait vraiment différente des autres
3Frandroid 

La prochaine puce de Nvidia serait vraiment différente des autres

Nvidia envisagerait de rompre avec son approche "tout-en-un" habituelle pour ses GPU, en développant une puce d'architecture fondamentalement différente. Cette évolution stratégique marquerait un tournant majeur pour le leader des puces IA. L'article ne précise pas le nom ni les caractéristiques techniques de cette future puce.

InfrastructureOpinion
1 source
NVIDIA et les géants des télécoms construisent des grilles IA pour optimiser l'inférence sur les réseaux distribués
4NVIDIA AI Blog 

NVIDIA et les géants des télécoms construisent des grilles IA pour optimiser l'inférence sur les réseaux distribués

À la conférence NVIDIA GTC 2026, les grands opérateurs télécom américains et asiatiques (AT&T, Comcast et d'autres) ont annoncé la création d'AI grids — des infrastructures IA géographiquement distribuées exploitant leurs réseaux existants pour rapprocher l'inférence IA des utilisateurs. Les télécoms disposent de quelque 100 000 datacenters distribués dans le monde, représentant un potentiel de plus de 100 gigawatts de capacité IA. AT&T s'associe à Cisco et NVIDIA pour des cas d'usage IoT en temps réel, tandis que Comcast développe un AI grid orienté expériences hyper-personnalisées avec NVIDIA, HPE, Decart et Personal AI.

UELes opérateurs télécom européens pourraient être incités à développer des infrastructures distribuées similaires pour rester compétitifs, mais aucun acteur européen n'est impliqué dans ces annonces.

InfrastructureActu
1 source

Recevez l'essentiel de l'IA chaque jour

Une sélection éditoriale quotidienne, sans bruit. Directement dans votre boîte mail.

Recevez l'essentiel de l'IA chaque jour