Aller au contenu principal
LLMsFrandroid3h

On ne s’y attendait pas : voici la grosse offensive de Xiaomi contre Gemini et GPT

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Xiaomi lance MiMo-V2-Pro, un nouveau modèle d'IA positionné comme concurrent direct de Gemini (Google) et GPT (OpenAI). Cette offensive marque l'entrée ambitieuse du constructeur chinois dans la course aux grands modèles de langage. L'article ne précise pas encore les capacités techniques ni les benchmarks du modèle.

Articles similaires

1The Decoder22h

Xiaomi lance trois modèles IA MiMo pour alimenter les agents, les robots et la voix

Xiaomi a lancé trois nouveaux modèles d'IA maison, développés par son équipe MiMo, destinés à alimenter des agents autonomes capables de contrôler des logiciels et d'effectuer des achats en ligne. L'entreprise vise également à intégrer ces modèles dans des robots à l'avenir. Les trois modèles couvrent les domaines des agents, de la robotique et de la voix.

UELes modèles MiMo de Xiaomi, orientés agents autonomes et robotique, pourraient concurrencer les offres européennes sur le marché des assistants embarqués et des robots grand public.

LLMsActu
1 source
2The Decoder2j

Le scientifique en chef d'OpenAI fait confiance à l'IA pour les expériences, mais estime qu'elle n'est pas encore capable de concevoir des systèmes complexes

Jakub Pachocki, directeur scientifique d'OpenAI, confie désormais à l'IA des expériences qui lui prenaient autrefois une semaine entière. Cependant, il estime que l'IA n'est pas encore capable de concevoir des systèmes complexes de manière autonome. Il reste donc vigilant quant à laisser l'IA prendre les commandes sur des tâches de conception avancées.

LLMsOpinion
1 source
3MarkTechPost2j

NVIDIA publie Nemotron-Cascade 2 : un MoE open source de 30 milliards de paramètres avec 3 milliards actifs, offrant un meilleur raisonnement et de solides capacités agentiques

NVIDIA lance Nemotron-Cascade 2, un modèle open-weight de type Mixture-of-Experts (MoE) avec 30 milliards de paramètres totaux dont seulement 3B actifs, conçu pour maximiser la densité d'intelligence. Il devient le deuxième LLM open-weight à atteindre le niveau médaille d'or à l'Olympiade Internationale de Mathématiques (IMO) 2025, à l'IOI et aux ICPC World Finals. Le modèle surpasse notamment le Qwen3.5-35B-A3B sur les benchmarks de raisonnement mathématique (AIME 2025 : 92,4 vs 91,9), de code (LiveCodeBench v6 : 87,2 vs 74,6) et d'instruction following (ArenaHard v2 : 83,5 vs 65,4), grâce à une pipeline d'entraînement combinant SFT, Cascade RL et distillation multi-domaine (MOPD).

UEModèle open-weight librement accessible aux développeurs et entreprises européens pour des cas d'usage de raisonnement avancé et d'agents IA.

LLMsActu
1 source