
Nvidia bat des records MLPerf avec 288 GPU pendant qu'AMD et Intel se concentrent sur d'autres fronts
Nvidia a établi de nouveaux records lors du dernier cycle de MLPerf Inference, le benchmark de référence de l'industrie pour mesurer les performances des systèmes d'inférence IA. L'entreprise a mobilisé jusqu'à 288 GPU pour atteindre ces résultats, se positionnant en tête des classements généraux. Cette édition marque une première : l'introduction de modèles multimodaux et vidéo dans les catégories évaluées, élargissant ainsi le périmètre d'un benchmark jusqu'ici centré sur les modèles texte et image.
AMD et Intel ont également participé à ce cycle, mais en mettant en avant des métriques différentes de celles privilégiées par Nvidia, ce qui rend les comparaisons directes particulièrement difficiles. Chaque acteur choisit les indicateurs qui valorisent le mieux ses propres architectures matérielles, une stratégie qui brouille la lecture des résultats pour les entreprises cherchant à choisir leur infrastructure d'inférence. Pour les équipes IA en production, cette divergence méthodologique complique les décisions d'achat et soulève des questions sur la neutralité du benchmark lui-même.
MLPerf, géré par MLCommons, est devenu l'étalon industriel incontournable pour comparer les performances des puces et systèmes IA en conditions réelles d'inférence. L'ajout de modèles multimodaux et vidéo reflète l'évolution rapide des cas d'usage en entreprise, où les assistants IA traitent désormais images, vidéos et texte simultanément. La domination persistante de Nvidia sur ces classements renforce sa position sur le marché des infrastructures IA, tandis qu'AMD et Intel cherchent à se différencier sur des segments où leurs architectures offrent un meilleur rapport performance-coût.
Les équipes IA européennes en charge d'achats d'infrastructure d'inférence doivent composer avec des benchmarks MLPerf dont la lecture est brouillée par des métriques divergentes entre Nvidia, AMD et Intel, rendant les comparaisons objectives difficiles.



