Aller au contenu principal
LLMsMarkTechPost1h

xAI lance grok-voice-think-fast-1.0, en tête du benchmark τ-voice à 67,3 %, devant Gemini et GPT Realtime

1 source couvre ce sujet·Source originale ↗·

xAI a lancé grok-voice-think-fast-1.0, son nouveau modèle de voix phare, disponible via l'API xAI. Ce modèle s'impose en tête du classement τ-voice Bench avec un score de 67,3 %, devançant largement ses concurrents directs : Gemini 3.1 Flash Live atteint 43,8 %, GPT Realtime 1.5 de OpenAI 35,3 %, et même la précédente version maison, Grok Voice Fast 1.0, ne dépasse pas 38,3 %. Les écarts sont encore plus marqués par secteur : en télécom, domaine couvrant les litiges de facturation et le support technique, grok-voice-think-fast-1.0 atteint 73,7 % contre 21,9 % pour Gemini et 21,1 % pour GPT Realtime 1.5, soit plus de 33 points d'avance. Dans le commerce de détail, il score 62,3 %, contre 44,7 % pour Gemini. Dans le secteur aérien, il atteint 66 %, contre 40 % pour Gemini. Le modèle est déjà déployé en production chez Starlink pour alimenter ses opérations téléphoniques en direct.

Ces chiffres sont significatifs parce que le τ-voice Bench évalue les agents vocaux dans des conditions réalistes : bruit de fond, accents, interruptions et prises de parole naturelles, là où la plupart des benchmarks historiques utilisent de l'audio propre et non représentatif des usages réels. Ce qui distingue fondamentalement le modèle est sa nature full-duplex : il traite la parole entrante et génère ses réponses simultanément, comme le font les humains, sans attendre que l'interlocuteur ait fini sa phrase. Cette capacité rend la gestion des interruptions techniquement très complexe : le modèle doit décider en temps réel si une intervention à mi-phrase est une correction, une précision ou simplement un mot de remplissage. Autre avancée majeure : le raisonnement s'effectue en arrière-plan, ce qui permet au modèle de traiter des requêtes complexes sans allonger le temps de réponse perçu par l'utilisateur, un problème structurel des modèles de raisonnement classiques.

La course aux agents vocaux de production s'est intensifiée depuis que Google a lancé Gemini Live et qu'OpenAI a déployé son API Realtime, deux systèmes qui avaient eux-mêmes marqué un saut par rapport aux architectures pipeline en cascade traditionnelles. xAI, fondé par Elon Musk en 2023, entre dans ce segment avec une approche explicitement orientée entreprise, ciblant le support client, la vente et les workflows en plusieurs étapes où les erreurs coûtent cher. Le déploiement chez Starlink constitue un test grandeur nature à grande échelle, ce qui renforce la crédibilité des benchmarks publiés. La disponibilité via API ouvre la voie à une intégration rapide dans des centres d'appel et des plateformes SaaS, un marché évalué à plusieurs dizaines de milliards de dollars et encore dominé par des solutions reposant sur des pipelines STT/LLM/TTS fragmentés.

Impact France/UE

Les centres d'appel et plateformes SaaS européens peuvent intégrer ce modèle via API pour moderniser leurs pipelines vocaux fragmentés, mais aucune entreprise ou réglementation française ou européenne n'est directement impliquée.

À lire aussi

DeepSeek V4 Pro (1.6T-A49B) et Flash (284B-A13B), Base et Instruct, compatibles avec les puces Huawei Ascend
1Latent Space 

DeepSeek V4 Pro (1.6T-A49B) et Flash (284B-A13B), Base et Instruct, compatibles avec les puces Huawei Ascend

DeepSeek a publié les 23 et 24 avril 2026 deux nouveaux modèles d'intelligence artificielle, DeepSeek V4 Pro et DeepSeek V4 Flash, marquant la première mise à jour majeure de l'architecture depuis DeepSeek V3 en décembre 2024 et DeepSeek R1 en janvier 2025. Le modèle phare, V4 Pro, embarque 1 600 milliards de paramètres au total dont 49 milliards actifs simultanément via une architecture de type Mixture of Experts (MoE), tandis que V4 Flash reste plus compact avec 284 milliards de paramètres et 13 milliards actifs. Les deux modèles ont été entraînés sur 32 à 33 000 milliards de tokens en précision FP4 et atteignent une fenêtre contextuelle d'un million de tokens, contre 128 000 pour V3.2. DeepSeek a publié sous licence MIT à la fois les versions Base et Instruct, et livre un rapport technique de 58 pages salué par de nombreux chercheurs comme l'un des mieux documentés de l'année. Cette publication représente une avancée significative pour l'écosystème des modèles open-weights. V4 Pro se classe autour de la deuxième position parmi les modèles à poids ouverts, dans une fourchette comparable à Kimi K2.6 et GLM-5.1, et rivalise selon les benchmarks avec des modèles fermés de la gamme Claude Sonnet à Opus. La fenêtre d'un million de tokens, rendue possible par deux nouvelles techniques maison nommées Compressed Sparse Attention (CSA) et Heavily Compressed Attention (HCA), est l'élément le plus commenté : à cette longueur, le modèle ne consomme que 27 % des opérations flottantes et 10 % de la mémoire KV cache comparé à DeepSeek V3.2. Les performances en codage agentique et en traitement de documents longs sont particulièrement relevées. La licence MIT et la publication des poids de base ouvrent par ailleurs la voie à des variantes spécialisées et, potentiellement, à un futur DeepSeek R2 orienté raisonnement. La sortie intervient dans un contexte géopolitique tendu autour des semi-conducteurs. DeepSeek a conçu V4 pour fonctionner sur les puces Huawei Ascend via la pile CANN, réduisant explicitement sa dépendance aux GPU Nvidia soumis aux restrictions américaines à l'export. Une étape symbolique forte : les Ascend représentent encore environ un quart des volumes d'H100, mais leur compatibilité avec un modèle de cette envergure signale une trajectoire vers une autonomie technologique chinoise complète. Sur le plan technique, le rapport documente aussi l'intégration de Muon, l'optimiseur développé par Moonshot, ainsi que des hyper-connexions contraintes par variété (mHC), publiées en janvier 2025. La complexité architecturale du modèle suscite un débat dans la communauté : certains chercheurs estiment que peu de laboratoires ouverts disposent des moyens pour reproduire ou affiner une telle infrastructure, relativisant ainsi la portée réelle de la "démocratisation" annoncée.

UELa compatibilité avec les puces Huawei Ascend illustre la trajectoire vers l'autonomie technologique chinoise, renforçant indirectement les débats européens sur la souveraineté numérique et la dépendance aux semi-conducteurs américains.

💬 Le million de tokens à 10% du cache de V3.2, ça c'est de l'ingénierie sérieuse. Mais le signal fort, c'est la compatibilité Huawei Ascend : DeepSeek documente explicitement sa sortie des GPU Nvidia, et un modèle de cette taille qui tourne sur CANN, c'est pas symbolique, c'est structurel. La licence MIT fait briller les yeux, mais reproduire 1,6T de paramètres, c'est une autre conversation.

LLMsActu
1 source
Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte
2MIT Technology Review 

Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte

DeepSeek a publié vendredi une version préliminaire de V4, son nouveau modèle phare attendu depuis plusieurs mois. Disponible en open source, le modèle se décline en deux versions : V4-Pro, conçu pour le code et les tâches d'agents complexes, et V4-Flash, plus léger et optimisé pour la vitesse. Sur les principaux benchmarks, V4-Pro rivalise avec les meilleurs modèles fermés du marché, se situant au niveau de Claude Opus de chez Anthropic, de GPT-5 d'OpenAI et de Gemini de Google. Face aux autres modèles open source, notamment Qwen d'Alibaba ou GLM de Z.ai, V4 les surpasse en codage, mathématiques et disciplines scientifiques. L'entreprise rapporte qu'une enquête interne auprès de 85 développeurs expérimentés a montré que plus de 90 % d'entre eux classent V4-Pro parmi leurs premiers choix pour les tâches de programmation. DeepSeek a également optimisé le modèle pour des frameworks d'agents populaires comme Claude Code ou CodeBuddy. Ce qui distingue V4, c'est son rapport performance-prix particulièrement agressif. V4-Pro est facturé 1,74 dollar par million de tokens en entrée et 3,48 dollars en sortie, une fraction du tarif pratiqué par OpenAI ou Anthropic pour des modèles comparables. V4-Flash descend encore plus bas, à 0,14 dollar par million de tokens en entrée et 0,28 dollar en sortie, ce qui en fait l'un des modèles haut de gamme les moins chers du marché. Pour les développeurs et les entreprises, cela signifie un accès à des capacités d'IA frontier sans les coûts habituellement prohibitifs des API propriétaires. Les deux versions intègrent un mode de raisonnement pas à pas, et V4 introduit une nouvelle architecture qui améliore significativement la gestion de longs contextes, ouvrant la voie à des applications sur des documents ou des bases de code entières. Cette sortie intervient dans un contexte particulier pour DeepSeek. La firme de Hangzhou avait provoqué un séisme dans l'industrie en janvier 2025 avec R1, un modèle de raisonnement entraîné avec des ressources limitées qui avait mis en question la suprématie américaine en matière d'IA. Depuis, l'entreprise a traversé des mois difficiles, marqués par des départs de personnels clés, des retards dans ses lancements et une surveillance accrue des gouvernements américain et chinois. V4 constitue son retour sur la scène des modèles frontier, même si l'effet de surprise de R1 ne se reproduira probablement pas. L'enjeu est désormais de confirmer que DeepSeek peut tenir dans la durée face à des adversaires disposant de ressources computationnelles autrement plus importantes, et de s'imposer comme une alternative crédible et pérenne dans un écosystème open source en pleine effervescence.

UELes développeurs et entreprises européennes accèdent à des capacités frontier en open source à des tarifs très inférieurs aux API propriétaires, élargissant concrètement les options pour les startups et PME du continent.

LLMsOpinion
1 source
GPT-5.5 vs DeepSeek V4 : quelle IA va dominer la prochaine révolution tech ?
3Le Big Data 

GPT-5.5 vs DeepSeek V4 : quelle IA va dominer la prochaine révolution tech ?

Le 24 avril 2026, OpenAI a lancé GPT-5.5 tandis que DeepSeek publiait son modèle V4 le lendemain, créant une confrontation directe entre les deux architectures les plus attendues de l'année. GPT-5.5 positionne OpenAI dans une logique d'agent autonome : le modèle peut gérer des tâches multi-étapes, planifier ses actions, utiliser des outils externes et avancer sans supervision constante. Ses quatre domaines de prédilection sont le codage agentique, l'interaction avec les systèmes informatiques, les tâches de bureau et la recherche scientifique. Sur le benchmark du codage agentique, il atteint 82,7 % de précision. De son côté, DeepSeek V4 se décline en deux versions : la Pro, avec 49 milliards de paramètres actifs et 1,6 billion de paramètres au total, et la Flash, plus légère à 13 milliards de paramètres actifs sur 284 milliards au total. Le modèle est open-source, intègre une fenêtre de contexte d'un million de tokens, et s'interface nativement avec des environnements comme Claude Code d'Anthropic. La confrontation entre ces deux modèles dessine une séparation nette selon les usages. GPT-5.5 domine sur les tâches qui exigent enchaînement logique, planification et autonomie prolongée, notamment dans les workflows en ligne de commande multi-étapes. DeepSeek V4, avec un score autour de 67,9 % sur le même benchmark, marque un écart de près de 15 points mais compense par une efficience économique et énergétique nettement supérieure. Pour les développeurs et entreprises qui cherchent à déployer des agents à grande échelle sans coûts prohibitifs, DeepSeek V4 Flash représente une option sérieuse. Cette bifurcation change concrètement les décisions d'architecture pour les équipes d'ingénierie : choisir entre puissance brute et rapport performance/coût devient un arbitrage stratégique, pas seulement technique. Ce duel s'inscrit dans une course à l'autonomie qui redéfinit le marché des LLM depuis mi-2025, quand OpenAI a commencé à pivoter vers les agents avec GPT-5 puis GPT-5.4. DeepSeek, laboratoire chinois soutenu par High-Flyer Capital, a déjà démontré sa capacité à bousculer les références du secteur début 2025 avec DeepSeek R1, qui avait provoqué une chute temporaire des valeurs tech américaines. Avec V4, il franchit une nouvelle étape en s'ancrant dans les outils des développeurs occidentaux, brouillant la frontière géopolitique que certains tentaient de tracer entre IA américaine et IA chinoise. Les prochaines semaines de benchmark indépendant seront déterminantes : si DeepSeek V4 Pro confirme ses performances sur les tâches d'inférence complexe, OpenAI pourrait se retrouver contraint d'accélérer la sortie de GPT-6 pour maintenir sa position de référence incontestée.

UELes équipes d'ingénierie européennes font face à un arbitrage stratégique immédiat entre puissance brute et rapport performance/coût pour leurs déploiements d'agents IA autonomes à grande échelle.

💬 15 points d'écart sur le benchmark agentique, GPT-5.5 gagne cette manche sans discussion. Mais DeepSeek V4 qui s'intègre nativement à Claude Code en restant open-source, c'est le genre de posture maligne qu'on n'attendait pas aussi vite : ils viennent chercher les devs occidentaux sur leur propre terrain. La frontière géopolitique que certains voulaient tracer, elle fond à vue d'oeil.

LLMsOpinion
1 source
DeepSeek publie DeepSeek-V4 : deux mécanismes d'attention compressée permettent des contextes d'un million de tokens
4MarkTechPost 

DeepSeek publie DeepSeek-V4 : deux mécanismes d'attention compressée permettent des contextes d'un million de tokens

DeepSeek-AI a publié en version préliminaire la série DeepSeek-V4, composée de deux modèles de langage à architecture Mixture-of-Experts (MoE) conçus pour rendre practicables les fenêtres contextuelles d'un million de tokens. Le premier modèle, DeepSeek-V4-Pro, totalise 1 600 milliards de paramètres dont 49 milliards activés par token, et a été pré-entraîné sur 33 000 milliards de tokens. Le second, DeepSeek-V4-Flash, compte 284 milliards de paramètres au total avec 13 milliards activés, entraîné sur 32 000 milliards de tokens. Les quatre variantes de la série -- Pro, Pro-Base, Flash et Flash-Base -- sont disponibles librement sur Hugging Face. Pour atteindre cette capacité d'un million de tokens, les ingénieurs ont combiné quatre innovations architecturales majeures : un mécanisme d'attention hybride inédit, un nouveau design de connexions résiduelles, un optimiseur alternatif et un entraînement avec quantification FP4. L'enjeu central est l'efficacité à l'inférence, un problème longtemps considéré comme rédhibitoire pour les très longs contextes. Dans un Transformer standard, la complexité de l'attention est quadratique par rapport à la longueur de la séquence : doubler le contexte quadruple la mémoire et le calcul requis. DeepSeek-V4 résout cela via deux mécanismes d'attention compressée, CSA (Compressed Sparse Attention) et HCA (Heavily Compressed Attention), intercalés entre les couches du modèle. CSA compresse le cache clé-valeur de m tokens en une seule entrée, puis sélectionne de façon sparse les entrées les plus pertinentes pour chaque requête. HCA est encore plus agressif : il consolide un bloc encore plus large de tokens en une unique entrée dense. Résultat : DeepSeek-V4-Pro ne consomme que 27 % des opérations flottantes et 10 % de la taille de cache KV de son prédécesseur DeepSeek-V3.2 pour un contexte d'un million de tokens. DeepSeek-V4-Flash descend à 10 % des FLOPs et 7 % du cache. Ces chiffres s'inscrivent dans une course technologique où la longueur de contexte est devenue un axe de différenciation majeur entre les grands laboratoires. Google, Anthropic et OpenAI ont tous étendu leurs fenêtres contextuelles ces derniers mois, mais le coût d'inférence à grande échelle reste un frein commercial décisif. DeepSeek, laboratoire chinois financé par le hedge fund High-Flyer, s'est imposé depuis début 2025 comme un concurrent sérieux avec ses modèles open-weights performants et économes. L'introduction des connexions résiduelles contraintes par polytope de Birkhoff (mHC) et de l'optimiseur Muon -- qui orthogonalise les mises à jour de gradients avant application -- témoigne d'une recherche fondamentale poussée, au-delà de la simple course aux paramètres. La version préliminaire suggère que des annonces plus complètes, avec benchmarks détaillés, sont à prévoir prochainement.

UELes quatre variantes open-weights DeepSeek-V4 disponibles sur Hugging Face permettent aux développeurs et chercheurs européens d'exploiter des contextes d'un million de tokens à coût d'inférence fortement réduit, sans dépendance à une API propriétaire.

LLMsOpinion
1 source