Aller au contenu principal
LLMsMarkTechPost2h

Mistral AI lance Mistral Small 4 : un modèle MoE de 119 milliards de paramètres qui unifie instruction, raisonnement et tâches multimodales

1 source couvre ce sujet·Source originale ↗·
Résumé IA

Mistral AI lance Mistral Small 4, un modèle MoE de 119 milliards de paramètres (6B actifs par token) qui unifie pour la première fois les capacités d'instruction, de raisonnement, de vision et de codage agentique en un seul modèle. Il supporte une fenêtre de contexte de 256k tokens et introduit un paramètre `reasoning_effort` configurable à l'inférence, permettant de choisir entre réponse rapide et raisonnement approfondi sans changer de modèle. Par rapport à Mistral Small 3, il affiche une réduction de 40% du temps de complétion et un débit 3x supérieur en configuration optimisée.

Impact France/UE

Mistral AI, fleuron français de l'IA, renforce sa compétitivité européenne avec un modèle unifiant vision, raisonnement et codage agentique à haute efficacité, réduisant la dépendance des entreprises et développeurs européens aux solutions américaines.

Articles similaires