Aller au contenu principal
LLMsActuIA7sem

Anthropic dévoile Claude Sonnet 4.5, toujours meilleur en programmation

1 source couvre ce sujet·Source originale ↗·

Anthropic a dévoilé Claude Sonnet 4.5, une nouvelle version de son modèle d'IA conçue pour améliorer les capacités de programmation. Cette mise à jour fait partie de la série Claude et vise à optimiser les performances dans les tâches de codage.

À lire aussi

DeepSeek V4 Pro (1.6T-A49B) et Flash (284B-A13B), Base et Instruct, compatibles avec les puces Huawei Ascend
1Latent Space 

DeepSeek V4 Pro (1.6T-A49B) et Flash (284B-A13B), Base et Instruct, compatibles avec les puces Huawei Ascend

DeepSeek a publié les 23 et 24 avril 2026 deux nouveaux modèles d'intelligence artificielle, DeepSeek V4 Pro et DeepSeek V4 Flash, marquant la première mise à jour majeure de l'architecture depuis DeepSeek V3 en décembre 2024 et DeepSeek R1 en janvier 2025. Le modèle phare, V4 Pro, embarque 1 600 milliards de paramètres au total dont 49 milliards actifs simultanément via une architecture de type Mixture of Experts (MoE), tandis que V4 Flash reste plus compact avec 284 milliards de paramètres et 13 milliards actifs. Les deux modèles ont été entraînés sur 32 à 33 000 milliards de tokens en précision FP4 et atteignent une fenêtre contextuelle d'un million de tokens, contre 128 000 pour V3.2. DeepSeek a publié sous licence MIT à la fois les versions Base et Instruct, et livre un rapport technique de 58 pages salué par de nombreux chercheurs comme l'un des mieux documentés de l'année. Cette publication représente une avancée significative pour l'écosystème des modèles open-weights. V4 Pro se classe autour de la deuxième position parmi les modèles à poids ouverts, dans une fourchette comparable à Kimi K2.6 et GLM-5.1, et rivalise selon les benchmarks avec des modèles fermés de la gamme Claude Sonnet à Opus. La fenêtre d'un million de tokens, rendue possible par deux nouvelles techniques maison nommées Compressed Sparse Attention (CSA) et Heavily Compressed Attention (HCA), est l'élément le plus commenté : à cette longueur, le modèle ne consomme que 27 % des opérations flottantes et 10 % de la mémoire KV cache comparé à DeepSeek V3.2. Les performances en codage agentique et en traitement de documents longs sont particulièrement relevées. La licence MIT et la publication des poids de base ouvrent par ailleurs la voie à des variantes spécialisées et, potentiellement, à un futur DeepSeek R2 orienté raisonnement. La sortie intervient dans un contexte géopolitique tendu autour des semi-conducteurs. DeepSeek a conçu V4 pour fonctionner sur les puces Huawei Ascend via la pile CANN, réduisant explicitement sa dépendance aux GPU Nvidia soumis aux restrictions américaines à l'export. Une étape symbolique forte : les Ascend représentent encore environ un quart des volumes d'H100, mais leur compatibilité avec un modèle de cette envergure signale une trajectoire vers une autonomie technologique chinoise complète. Sur le plan technique, le rapport documente aussi l'intégration de Muon, l'optimiseur développé par Moonshot, ainsi que des hyper-connexions contraintes par variété (mHC), publiées en janvier 2025. La complexité architecturale du modèle suscite un débat dans la communauté : certains chercheurs estiment que peu de laboratoires ouverts disposent des moyens pour reproduire ou affiner une telle infrastructure, relativisant ainsi la portée réelle de la "démocratisation" annoncée.

UELa compatibilité avec les puces Huawei Ascend illustre la trajectoire vers l'autonomie technologique chinoise, renforçant indirectement les débats européens sur la souveraineté numérique et la dépendance aux semi-conducteurs américains.

LLMsActu
1 source
Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte
2MIT Technology Review 

Le nouveau modèle V4 de DeepSeek : trois raisons pour lesquelles il compte

DeepSeek a publié vendredi une version préliminaire de V4, son nouveau modèle phare attendu depuis plusieurs mois. Disponible en open source, le modèle se décline en deux versions : V4-Pro, conçu pour le code et les tâches d'agents complexes, et V4-Flash, plus léger et optimisé pour la vitesse. Sur les principaux benchmarks, V4-Pro rivalise avec les meilleurs modèles fermés du marché, se situant au niveau de Claude Opus de chez Anthropic, de GPT-5 d'OpenAI et de Gemini de Google. Face aux autres modèles open source, notamment Qwen d'Alibaba ou GLM de Z.ai, V4 les surpasse en codage, mathématiques et disciplines scientifiques. L'entreprise rapporte qu'une enquête interne auprès de 85 développeurs expérimentés a montré que plus de 90 % d'entre eux classent V4-Pro parmi leurs premiers choix pour les tâches de programmation. DeepSeek a également optimisé le modèle pour des frameworks d'agents populaires comme Claude Code ou CodeBuddy. Ce qui distingue V4, c'est son rapport performance-prix particulièrement agressif. V4-Pro est facturé 1,74 dollar par million de tokens en entrée et 3,48 dollars en sortie, une fraction du tarif pratiqué par OpenAI ou Anthropic pour des modèles comparables. V4-Flash descend encore plus bas, à 0,14 dollar par million de tokens en entrée et 0,28 dollar en sortie, ce qui en fait l'un des modèles haut de gamme les moins chers du marché. Pour les développeurs et les entreprises, cela signifie un accès à des capacités d'IA frontier sans les coûts habituellement prohibitifs des API propriétaires. Les deux versions intègrent un mode de raisonnement pas à pas, et V4 introduit une nouvelle architecture qui améliore significativement la gestion de longs contextes, ouvrant la voie à des applications sur des documents ou des bases de code entières. Cette sortie intervient dans un contexte particulier pour DeepSeek. La firme de Hangzhou avait provoqué un séisme dans l'industrie en janvier 2025 avec R1, un modèle de raisonnement entraîné avec des ressources limitées qui avait mis en question la suprématie américaine en matière d'IA. Depuis, l'entreprise a traversé des mois difficiles, marqués par des départs de personnels clés, des retards dans ses lancements et une surveillance accrue des gouvernements américain et chinois. V4 constitue son retour sur la scène des modèles frontier, même si l'effet de surprise de R1 ne se reproduira probablement pas. L'enjeu est désormais de confirmer que DeepSeek peut tenir dans la durée face à des adversaires disposant de ressources computationnelles autrement plus importantes, et de s'imposer comme une alternative crédible et pérenne dans un écosystème open source en pleine effervescence.

UELes développeurs et entreprises européennes accèdent à des capacités frontier en open source à des tarifs très inférieurs aux API propriétaires, élargissant concrètement les options pour les startups et PME du continent.

LLMsOpinion
1 source
GPT-5.5 vs DeepSeek V4 : quelle IA va dominer la prochaine révolution tech ?
3Le Big Data 

GPT-5.5 vs DeepSeek V4 : quelle IA va dominer la prochaine révolution tech ?

Le 24 avril 2026, OpenAI a lancé GPT-5.5 tandis que DeepSeek publiait son modèle V4 le lendemain, créant une confrontation directe entre les deux architectures les plus attendues de l'année. GPT-5.5 positionne OpenAI dans une logique d'agent autonome : le modèle peut gérer des tâches multi-étapes, planifier ses actions, utiliser des outils externes et avancer sans supervision constante. Ses quatre domaines de prédilection sont le codage agentique, l'interaction avec les systèmes informatiques, les tâches de bureau et la recherche scientifique. Sur le benchmark du codage agentique, il atteint 82,7 % de précision. De son côté, DeepSeek V4 se décline en deux versions : la Pro, avec 49 milliards de paramètres actifs et 1,6 billion de paramètres au total, et la Flash, plus légère à 13 milliards de paramètres actifs sur 284 milliards au total. Le modèle est open-source, intègre une fenêtre de contexte d'un million de tokens, et s'interface nativement avec des environnements comme Claude Code d'Anthropic. La confrontation entre ces deux modèles dessine une séparation nette selon les usages. GPT-5.5 domine sur les tâches qui exigent enchaînement logique, planification et autonomie prolongée, notamment dans les workflows en ligne de commande multi-étapes. DeepSeek V4, avec un score autour de 67,9 % sur le même benchmark, marque un écart de près de 15 points mais compense par une efficience économique et énergétique nettement supérieure. Pour les développeurs et entreprises qui cherchent à déployer des agents à grande échelle sans coûts prohibitifs, DeepSeek V4 Flash représente une option sérieuse. Cette bifurcation change concrètement les décisions d'architecture pour les équipes d'ingénierie : choisir entre puissance brute et rapport performance/coût devient un arbitrage stratégique, pas seulement technique. Ce duel s'inscrit dans une course à l'autonomie qui redéfinit le marché des LLM depuis mi-2025, quand OpenAI a commencé à pivoter vers les agents avec GPT-5 puis GPT-5.4. DeepSeek, laboratoire chinois soutenu par High-Flyer Capital, a déjà démontré sa capacité à bousculer les références du secteur début 2025 avec DeepSeek R1, qui avait provoqué une chute temporaire des valeurs tech américaines. Avec V4, il franchit une nouvelle étape en s'ancrant dans les outils des développeurs occidentaux, brouillant la frontière géopolitique que certains tentaient de tracer entre IA américaine et IA chinoise. Les prochaines semaines de benchmark indépendant seront déterminantes : si DeepSeek V4 Pro confirme ses performances sur les tâches d'inférence complexe, OpenAI pourrait se retrouver contraint d'accélérer la sortie de GPT-6 pour maintenir sa position de référence incontestée.

UELes équipes d'ingénierie européennes font face à un arbitrage stratégique immédiat entre puissance brute et rapport performance/coût pour leurs déploiements d'agents IA autonomes à grande échelle.

💬 15 points d'écart sur le benchmark agentique, GPT-5.5 gagne cette manche sans discussion. Mais DeepSeek V4 qui s'intègre nativement à Claude Code en restant open-source, c'est le genre de posture maligne qu'on n'attendait pas aussi vite : ils viennent chercher les devs occidentaux sur leur propre terrain. La frontière géopolitique que certains voulaient tracer, elle fond à vue d'oeil.

LLMsOpinion
1 source
DeepSeek publie DeepSeek-V4 : deux mécanismes d'attention compressée permettent des contextes d'un million de tokens
4MarkTechPost 

DeepSeek publie DeepSeek-V4 : deux mécanismes d'attention compressée permettent des contextes d'un million de tokens

DeepSeek-AI a publié en version préliminaire la série DeepSeek-V4, composée de deux modèles de langage à architecture Mixture-of-Experts (MoE) conçus pour rendre practicables les fenêtres contextuelles d'un million de tokens. Le premier modèle, DeepSeek-V4-Pro, totalise 1 600 milliards de paramètres dont 49 milliards activés par token, et a été pré-entraîné sur 33 000 milliards de tokens. Le second, DeepSeek-V4-Flash, compte 284 milliards de paramètres au total avec 13 milliards activés, entraîné sur 32 000 milliards de tokens. Les quatre variantes de la série -- Pro, Pro-Base, Flash et Flash-Base -- sont disponibles librement sur Hugging Face. Pour atteindre cette capacité d'un million de tokens, les ingénieurs ont combiné quatre innovations architecturales majeures : un mécanisme d'attention hybride inédit, un nouveau design de connexions résiduelles, un optimiseur alternatif et un entraînement avec quantification FP4. L'enjeu central est l'efficacité à l'inférence, un problème longtemps considéré comme rédhibitoire pour les très longs contextes. Dans un Transformer standard, la complexité de l'attention est quadratique par rapport à la longueur de la séquence : doubler le contexte quadruple la mémoire et le calcul requis. DeepSeek-V4 résout cela via deux mécanismes d'attention compressée, CSA (Compressed Sparse Attention) et HCA (Heavily Compressed Attention), intercalés entre les couches du modèle. CSA compresse le cache clé-valeur de m tokens en une seule entrée, puis sélectionne de façon sparse les entrées les plus pertinentes pour chaque requête. HCA est encore plus agressif : il consolide un bloc encore plus large de tokens en une unique entrée dense. Résultat : DeepSeek-V4-Pro ne consomme que 27 % des opérations flottantes et 10 % de la taille de cache KV de son prédécesseur DeepSeek-V3.2 pour un contexte d'un million de tokens. DeepSeek-V4-Flash descend à 10 % des FLOPs et 7 % du cache. Ces chiffres s'inscrivent dans une course technologique où la longueur de contexte est devenue un axe de différenciation majeur entre les grands laboratoires. Google, Anthropic et OpenAI ont tous étendu leurs fenêtres contextuelles ces derniers mois, mais le coût d'inférence à grande échelle reste un frein commercial décisif. DeepSeek, laboratoire chinois financé par le hedge fund High-Flyer, s'est imposé depuis début 2025 comme un concurrent sérieux avec ses modèles open-weights performants et économes. L'introduction des connexions résiduelles contraintes par polytope de Birkhoff (mHC) et de l'optimiseur Muon -- qui orthogonalise les mises à jour de gradients avant application -- témoigne d'une recherche fondamentale poussée, au-delà de la simple course aux paramètres. La version préliminaire suggère que des annonces plus complètes, avec benchmarks détaillés, sont à prévoir prochainement.

UELes quatre variantes open-weights DeepSeek-V4 disponibles sur Hugging Face permettent aux développeurs et chercheurs européens d'exploiter des contextes d'un million de tokens à coût d'inférence fortement réduit, sans dépendance à une API propriétaire.

LLMsOpinion
1 source