
Le nouveau rack serveur de Nvidia accueillera des puces IA de ses concurrents
Nvidia a présenté lors de sa conférence annuelle GTC un nouveau rack serveur conçu pour accueillir non seulement ses propres puces, mais aussi celles de ses concurrents directs sur le marché de l'IA. Une stratégie audacieuse qui lui permet de monétiser la concurrence plutôt que de la subir.
Cette annonce illustre la capacité de Nvidia à se repositionner face à une compétition croissante dans le segment des puces IA. En contrôlant l'infrastructure réseau qui relie les processeurs au sein du rack, l'entreprise conserve un rôle central dans les déploiements data center, quelle que soit la marque des accélérateurs utilisés.
Le cœur du dispositif repose sur la technologie de networking intégrée au rack, qui assure une communication rapide et fiable entre les puces — un point critique pour les charges de travail IA distribuées. Selon deux sources proches du projet, cette interconnexion est conçue pour fonctionner avec des puces tierces sans dégradation des performances.
Cette approche rappelle la stratégie de Nvidia avec son écosystème CUDA : plutôt que de s'opposer frontalement aux alternatives (AMD, Intel, startups comme Groq ou Cerebras), l'entreprise crée une dépendance sur la couche infrastructure. Le marché des racks et du networking représente ainsi un nouveau levier de revenus, indépendant de la bataille pour la suprématie des GPU.
Les entreprises européennes qui achètent des infrastructures IA pourront bénéficier de racks interopérables, réduisant potentiellement la dépendance à un seul fournisseur de puces.
Dans nos dossiers
Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.


