
DeepSeek réduit ses prix d'API et établit un nouveau plancher pour les grands modèles
DeepSeek a annoncé le 26 avril une réduction massive des tarifs de son API, établissant de nouveaux planchers mondiaux pour les grands modèles de langage. Sur l'ensemble de la gamme V4, les prix des requêtes en cache d'entrée ont été divisés par dix par rapport aux tarifs initiaux. Le modèle phare V4-Pro bénéficie en outre d'une promotion temporaire de 75 % valable jusqu'au 5 mai 2026, portant le coût du cache d'entrée à seulement 0,025 yuan par million de tokens (environ 0,0035 dollar), un niveau sans précédent dans l'industrie. Pour V4-Flash, le tarif passe de 0,2 yuan à 0,02 yuan par million de tokens (0,0028 dollar). Sur V4-Pro, les entrées non mises en cache tombent de 12 à 3 yuans (0,41 dollar) et les sorties de 24 à 6 yuans (0,83 dollar). Ces baisses surviennent deux jours après la mise en open source de DeepSeek-V4, disponible en versions Pro et Flash, avec un support de contextes allant jusqu'à un million de tokens.
Ces tarifs redéfinissent ce qui est économiquement viable pour les développeurs et les entreprises qui intègrent des modèles de langage dans leurs produits. À moins de 0,004 dollar par million de tokens en cache, des usages autrefois coûteux deviennent accessibles : agents autonomes, traitement massif de documents, pipelines de code avancés. L'argument économique est renforcé par des performances solides : en interne chez DeepSeek, V4 est jugé supérieur à Claude Sonnet 4.5 sur les tâches de programmation, avec une qualité approchant celle de Claude Opus 4.6 en mode non-raisonné. Dans les benchmarks généraux, V4-Pro surpasse tous les modèles open source et ne cède qu'aux meilleurs modèles propriétaires comme Gemini Pro 3.1 ; en mathématiques, STEM et coding compétitif, il égale ou dépasse les leaders du marché.
Ces baisses de prix reposent sur des avancées architecturales concrètes. V4-Pro n'active que 49 milliards de paramètres sur 33 000 milliards de tokens d'entraînement, mais son coût de calcul par token est réduit à 27 % de celui de son prédécesseur V3.2, et l'utilisation du cache KV chute de 90 %. Le nouveau mécanisme d'attention creuse développé en interne (DSA) compresse les dimensions des tokens pour offrir de hautes performances sur les longs contextes avec des besoins en mémoire réduits. Stratégiquement, la série V4 est entièrement compatible avec les supernœuds Huawei Ascend, marquant un ancrage renforcé dans l'infrastructure de calcul domestique chinoise. Goldman Sachs a récemment souligné l'importance stratégique de DeepSeek-V4, et la mise en production massive des supernœuds Ascend prévue d'ici fin 2026 laisse entrevoir de nouvelles baisses tarifaires. Dans un secteur où OpenAI, Google et Anthropic s'affrontent déjà sur les prix, cette annonce amplifie la pression sur l'ensemble de l'écosystème mondial de l'IA.
La réduction massive des prix de l'API DeepSeek V4 offre aux développeurs et entreprises européens un accès à des modèles de pointe à des coûts jusqu'à dix fois inférieurs, rendant économiquement viables des usages IA auparavant réservés aux grandes structures.
Dans nos dossiers




