Aller au contenu principal
xAI lance Grok 4.3 à prix cassé et une nouvelle suite de clonage vocal rapide et puissante
LLMsVentureBeat AI57min

xAI lance Grok 4.3 à prix cassé et une nouvelle suite de clonage vocal rapide et puissante

Résumé IASource uniqueImpact UE
Source originale ↗·

xAI, la société d'intelligence artificielle fondée par Elon Musk, a lancé mercredi Grok 4.3, son nouveau grand modèle de langage propriétaire, accompagné d'une suite de clonage vocal. Le modèle est désormais accessible à tous via l'API xAI et la plateforme OpenRouter, après une phase de test en avril réservée aux abonnés SuperGrok (30 dollars par mois) et X Premium+ (40 dollars par mois, avec 50 % de réduction les deux premiers mois). Le coup de force commercial tient à sa tarification : 1,25 dollar par million de tokens en entrée et 2,50 dollars par million en sortie, soit deux à deux fois et demie moins cher que son prédécesseur Grok 4.2, facturé 2 et 6 dollars respectivement. Techniquement, Grok 4.3 intègre un raisonnement permanent et non désactivable, une fenêtre de contexte d'un million de tokens, et des capacités agentiques inédites : le modèle peut désormais utiliser des outils professionnels de façon autonome, générer des fichiers Excel multi-onglets avec calculs automatiques ou produire des rapports PDF de douze pages avec mise en page complète, logos et tableaux structurés.

Ce positionnement tarifaire agressif constitue l'atout central de xAI face à ses concurrents. En proposant des performances en progression significative sur les benchmarks tiers par rapport à Grok 4.2, tout en maintenant un coût nettement inférieur aux modèles d'OpenAI et d'Anthropic, xAI vise clairement les développeurs et les entreprises sensibles au prix. Les capacités agentiques représentent une rupture qualitative : le modèle ne se contente plus de répondre à des questions, il exécute des tâches complexes en plusieurs étapes de façon autonome. Un exemple documenté montre Grok 4.3 consacrer six minutes et vingt-deux secondes à construire un analyseur DPS sous forme de tableur multi-feuilles, un niveau d'exécution qui dépasse largement la génération de texte classique.

Ce lancement intervient dans un contexte tendu pour xAI : les dix cofondateurs originaux et des dizaines de chercheurs ont quitté la société ces derniers mois, tandis que Grok se retrouvait distancé par les modèles de OpenAI, Anthropic, Google, DeepSeek, Kimi (Moonshot) et Qwen (Alibaba). Malgré la progression enregistrée, la firme d'évaluation indépendante Artificial Analysis place toujours Grok 4.3 en dessous du niveau de l'état de l'art fixé par OpenAI et Anthropic. Elon Musk est par ailleurs actuellement en procès contre son ancien associé Sam Altman, cofondateur d'OpenAI. Dans cette bataille frontale pour le marché des LLM, xAI semble avoir choisi une stratégie de volume par les prix plutôt que la course aux benchmarks, pariant que l'accessibilité économique et les nouvelles fonctionnalités agentiques suffiront à conquérir une base d'utilisateurs fidèle face à des concurrents aux modèles plus puissants mais plus coûteux.

Vu une erreur factuelle dans cet article ? Signalez-la. Toutes les corrections valides sont publiées sur /corrections.

À lire aussi

Poolside lance Laguna XS.2, un modèle ouvert gratuit et performant pour le codage local à base d'agents
1VentureBeat AI 

Poolside lance Laguna XS.2, un modèle ouvert gratuit et performant pour le codage local à base d'agents

La startup américaine Poolside, fondée à San Francisco en 2023, a lancé ce 28 avril 2026 deux nouveaux modèles de langage sous la marque Laguna, conçus spécifiquement pour les tâches de codage agentique. Le premier, Laguna M.1, est un modèle propriétaire de 225 milliards de paramètres au format Mixture of Experts (MoE), avec 23 milliards de paramètres actifs, destiné aux environnements d'entreprise et gouvernementaux à hautes exigences de sécurité. Le second, Laguna XS.2, est un modèle open source sous licence Apache 2.0 de 33 milliards de paramètres (3 milliards actifs), téléchargeable et exécutable localement sur un simple GPU de bureau ou d'ordinateur portable, sans connexion internet. Poolside accompagne ces deux modèles d'un agent de codage en ligne de commande baptisé "pool" et d'un environnement de développement web mobile appelé "shimmer". Temporairement, même le plus grand modèle M.1 est accessible gratuitement via l'API Poolside et des partenaires comme OpenRouter, Ollama et Baseten. L'arrivée de Laguna XS.2 en open source représente un signal fort dans un secteur dominé soit par des modèles propriétaires coûteux comme Claude d'Anthropic ou GPT-5.5 d'OpenAI, soit par des modèles chinois à licence ouverte comme ceux de DeepSeek. Poolside offre ici une alternative américaine, exécutable entièrement hors ligne, ce qui répond à un besoin critique pour les agences gouvernementales et les entreprises opérant dans des environnements ultra-sécurisés. L'ingénieur post-entraînement George Grigorev a précisé que Poolside peut "livrer des poids dans des environnements totalement isolés on-premises, sans connexion réseau", un avantage décisif face aux solutions cloud d'Anthropic ou Google. Par ailleurs, les deux modèles Laguna ont été entraînés intégralement from scratch, contrairement à plusieurs laboratoires américains qui s'appuient sur les modèles de base Qwen d'Alibaba, ce qui leur confère une indépendance technique notable. Poolside s'est jusqu'ici concentrée sur des contrats gouvernementaux et de défense, construisant ses modèles dans un environnement interne appelé "Model Factory", dont le moteur central est un logiciel maison nommé Titan. L'entreprise utilise également un optimiseur d'entraînement appelé Muon, qui accélère l'apprentissage d'environ 15% par rapport aux méthodes standards, un avantage compétitif non négligeable en termes de coûts et de délais. En s'ouvrant maintenant à la communauté des développeurs et à la recherche publique, Poolside change de stratégie et entre de plein pied dans la bataille de l'open source agentique, à un moment où les entreprises tech cherchent à réduire leur dépendance aux API propriétaires pour des raisons de coût, de confidentialité et de souveraineté technologique.

UELes organisations européennes en environnement isolé (défense, administration) peuvent déployer localement un modèle de codage agentique open source américain sans dépendance cloud, renforçant leur autonomie technologique.

LLMsActu
1 source
xAI lance grok-voice-think-fast-1.0, en tête du benchmark τ-voice à 67,3 %, devant Gemini et GPT Realtime
2MarkTechPost 

xAI lance grok-voice-think-fast-1.0, en tête du benchmark τ-voice à 67,3 %, devant Gemini et GPT Realtime

xAI a lancé grok-voice-think-fast-1.0, son nouveau modèle de voix phare, disponible via l'API xAI. Ce modèle s'impose en tête du classement τ-voice Bench avec un score de 67,3 %, devançant largement ses concurrents directs : Gemini 3.1 Flash Live atteint 43,8 %, GPT Realtime 1.5 de OpenAI 35,3 %, et même la précédente version maison, Grok Voice Fast 1.0, ne dépasse pas 38,3 %. Les écarts sont encore plus marqués par secteur : en télécom, domaine couvrant les litiges de facturation et le support technique, grok-voice-think-fast-1.0 atteint 73,7 % contre 21,9 % pour Gemini et 21,1 % pour GPT Realtime 1.5, soit plus de 33 points d'avance. Dans le commerce de détail, il score 62,3 %, contre 44,7 % pour Gemini. Dans le secteur aérien, il atteint 66 %, contre 40 % pour Gemini. Le modèle est déjà déployé en production chez Starlink pour alimenter ses opérations téléphoniques en direct. Ces chiffres sont significatifs parce que le τ-voice Bench évalue les agents vocaux dans des conditions réalistes : bruit de fond, accents, interruptions et prises de parole naturelles, là où la plupart des benchmarks historiques utilisent de l'audio propre et non représentatif des usages réels. Ce qui distingue fondamentalement le modèle est sa nature full-duplex : il traite la parole entrante et génère ses réponses simultanément, comme le font les humains, sans attendre que l'interlocuteur ait fini sa phrase. Cette capacité rend la gestion des interruptions techniquement très complexe : le modèle doit décider en temps réel si une intervention à mi-phrase est une correction, une précision ou simplement un mot de remplissage. Autre avancée majeure : le raisonnement s'effectue en arrière-plan, ce qui permet au modèle de traiter des requêtes complexes sans allonger le temps de réponse perçu par l'utilisateur, un problème structurel des modèles de raisonnement classiques. La course aux agents vocaux de production s'est intensifiée depuis que Google a lancé Gemini Live et qu'OpenAI a déployé son API Realtime, deux systèmes qui avaient eux-mêmes marqué un saut par rapport aux architectures pipeline en cascade traditionnelles. xAI, fondé par Elon Musk en 2023, entre dans ce segment avec une approche explicitement orientée entreprise, ciblant le support client, la vente et les workflows en plusieurs étapes où les erreurs coûtent cher. Le déploiement chez Starlink constitue un test grandeur nature à grande échelle, ce qui renforce la crédibilité des benchmarks publiés. La disponibilité via API ouvre la voie à une intégration rapide dans des centres d'appel et des plateformes SaaS, un marché évalué à plusieurs dizaines de milliards de dollars et encore dominé par des solutions reposant sur des pipelines STT/LLM/TTS fragmentés.

UELes centres d'appel et plateformes SaaS européens peuvent intégrer ce modèle via API pour moderniser leurs pipelines vocaux fragmentés, mais aucune entreprise ou réglementation française ou européenne n'est directement impliquée.

LLMsActu
1 source
DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles
3Pandaily 

DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles

DeepSeek a annoncé le 26 avril une réduction massive des tarifs de son API, établissant de nouveaux planchers mondiaux pour les grands modèles de langage. Sur l'ensemble de la gamme V4, les prix des requêtes en cache d'entrée ont été divisés par dix par rapport aux tarifs initiaux. Le modèle phare V4-Pro bénéficie en outre d'une promotion temporaire de 75 % valable jusqu'au 5 mai 2026, portant le coût du cache d'entrée à seulement 0,025 yuan par million de tokens (environ 0,0035 dollar), un niveau sans précédent dans l'industrie. Pour V4-Flash, le tarif passe de 0,2 yuan à 0,02 yuan par million de tokens (0,0028 dollar). Sur V4-Pro, les entrées non mises en cache tombent de 12 à 3 yuans (0,41 dollar) et les sorties de 24 à 6 yuans (0,83 dollar). Ces baisses surviennent deux jours après la mise en open source de DeepSeek-V4, disponible en versions Pro et Flash, avec un support de contextes allant jusqu'à un million de tokens. Ces tarifs redéfinissent ce qui est économiquement viable pour les développeurs et les entreprises qui intègrent des modèles de langage dans leurs produits. À moins de 0,004 dollar par million de tokens en cache, des usages autrefois coûteux deviennent accessibles : agents autonomes, traitement massif de documents, pipelines de code avancés. L'argument économique est renforcé par des performances solides : en interne chez DeepSeek, V4 est jugé supérieur à Claude Sonnet 4.5 sur les tâches de programmation, avec une qualité approchant celle de Claude Opus 4.6 en mode non-raisonné. Dans les benchmarks généraux, V4-Pro surpasse tous les modèles open source et ne cède qu'aux meilleurs modèles propriétaires comme Gemini Pro 3.1 ; en mathématiques, STEM et coding compétitif, il égale ou dépasse les leaders du marché. Ces baisses de prix reposent sur des avancées architecturales concrètes. V4-Pro n'active que 49 milliards de paramètres sur 33 000 milliards de tokens d'entraînement, mais son coût de calcul par token est réduit à 27 % de celui de son prédécesseur V3.2, et l'utilisation du cache KV chute de 90 %. Le nouveau mécanisme d'attention creuse développé en interne (DSA) compresse les dimensions des tokens pour offrir de hautes performances sur les longs contextes avec des besoins en mémoire réduits. Stratégiquement, la série V4 est entièrement compatible avec les supernœuds Huawei Ascend, marquant un ancrage renforcé dans l'infrastructure de calcul domestique chinoise. Goldman Sachs a récemment souligné l'importance stratégique de DeepSeek-V4, et la mise en production massive des supernœuds Ascend prévue d'ici fin 2026 laisse entrevoir de nouvelles baisses tarifaires. Dans un secteur où OpenAI, Google et Anthropic s'affrontent déjà sur les prix, cette annonce amplifie la pression sur l'ensemble de l'écosystème mondial de l'IA.

UELa réduction massive des prix de l'API DeepSeek V4 offre aux développeurs et entreprises européens un accès à des modèles de pointe à des coûts jusqu'à dix fois inférieurs, rendant économiquement viables des usages IA auparavant réservés aux grandes structures.

💬 0,004 dollar par million de tokens, c'est le prix où les agents continus et le traitement massif de docs deviennent des trucs normaux, pas des projets de grande entreprise. Et que V4 passe devant Sonnet sur le code, ça commence à faire mal pour les modèles US sur le segment développeurs. Reste à voir si ça tient à l'échelle, mais le rapport de force change.

LLMsOpinion
1 source
4Siècle Digital 

Meta lance un nouveau modèle d’IA, pour tenter de rattraper Google et OpenAI

Meta a lancé mercredi 8 avril son nouveau modèle d'intelligence artificielle baptisé Muse Spark, première production officielle des Meta Superintelligence Labs. Ce lancement représente le résultat d'un investissement de 14,3 milliards de dollars engagé par le groupe de Mark Zuckerberg dans sa course pour rivaliser avec Google et OpenAI sur le marché des modèles de fondation les plus avancés. Ce lancement marque un tournant stratégique pour Meta, qui cherche à dépasser son image de simple acteur open source. La famille Llama avait jusqu'ici construit la réputation d'un Meta généreux, distribuant ses modèles librement à la communauté des développeurs. Avec Muse Spark, l'entreprise semble viser un positionnement différent, plus orienté vers la compétition directe avec les modèles propriétaires de Google DeepMind et d'OpenAI. Pour les entreprises et développeurs qui avaient misé sur l'écosystème Llama, cette bifurcation soulève des questions sur la cohérence de la stratégie IA de Meta. Le contexte de ce lancement est tendu : Meta accélère ses dépenses en IA à un rythme inédit, alors que la concurrence entre grands modèles s'intensifie avec les sorties récentes de Gemini 2.0 et GPT-4o. La création des Meta Superintelligence Labs signale une réorganisation interne profonde, visant à concentrer les meilleurs talents sur les systèmes les plus ambitieux. Les prochains mois diront si Muse Spark peut réellement combler le retard accumulé face aux leaders du secteur.

UELe lancement de Muse Spark et le pivot stratégique de Meta vers le propriétaire oblige les entreprises et développeurs européens ayant misé sur l'écosystème Llama open source à réévaluer leurs choix d'infrastructure IA.

LLMsOpinion
1 source