NVIDIA publie Nemotron-Cascade 2 : un MoE open source de 30 milliards de paramètres avec 3 milliards actifs, offrant un meilleur raisonnement et de solides capacités agentiques
NVIDIA lance Nemotron-Cascade 2, un modèle open-weight de type Mixture-of-Experts (MoE) avec 30 milliards de paramètres totaux dont seulement 3B actifs, conçu pour maximiser la densité d'intelligence. Il devient le deuxième LLM open-weight à atteindre le niveau médaille d'or à l'Olympiade Internationale de Mathématiques (IMO) 2025, à l'IOI et aux ICPC World Finals. Le modèle surpasse notamment le Qwen3.5-35B-A3B sur les benchmarks de raisonnement mathématique (AIME 2025 : 92,4 vs 91,9), de code (LiveCodeBench v6 : 87,2 vs 74,6) et d'instruction following (ArenaHard v2 : 83,5 vs 65,4), grâce à une pipeline d'entraînement combinant SFT, Cascade RL et distillation multi-domaine (MOPD).
Modèle open-weight librement accessible aux développeurs et entreprises européens pour des cas d'usage de raisonnement avancé et d'agents IA.