
90 % moins cher : DeepSeek V4 déclare la guerre totale à OpenAI
DeepSeek a lancé le 24 avril 2026 la version préliminaire de son modèle V4, disponible en deux déclinaisons, Pro et Flash, toutes deux open source. Deux jours à peine après ce lancement, l'entreprise chinoise a enchaîné les annonces tarifaires : le 25 avril, une promotion de 75 % sur l'API V4-Pro, valable jusqu'au 5 mai 2026 à 15h59 UTC, ramenant le prix des entrées en cache de 0,145 dollar à 0,036 dollar, et les sorties de 3,48 à 0,87 dollar. Puis le 26 avril, DeepSeek a généralisé la baisse en réduisant à un dixième du tarif initial le coût d'accès au cache d'entrée pour l'ensemble de sa gamme d'API, effective immédiatement.
Ces chiffres prennent tout leur sens face aux tarifs des concurrents américains : Claude Opus 4.7 facture 5 dollars l'entrée et 25 dollars la sortie, GPT-5.5 affiche 5 dollars en entrée et 30 dollars en sortie, et jusqu'à 180 dollars pour la version Pro, tandis que Gemini 3.1 Pro démarre à 2 dollars en entrée et 12 dollars en sortie, avec un doublement des prix au-delà de 200 000 tokens. Pour les développeurs et entreprises qui consomment des volumes importants de tokens, l'écart devient structurellement décisif : utiliser DeepSeek V4-Pro peut coûter dix à cinquante fois moins cher que les alternatives propriétaires comparables en termes de performances. Cela repositionne la question du choix du modèle moins comme un arbitrage qualité-prix que comme un choix purement économique, et met une pression réelle sur les marges des fournisseurs occidentaux.
La capacité de DeepSeek à pratiquer ces prix sans sacrifier les performances repose sur une architecture repensée en profondeur. L'entreprise a développé un système hybride baptisé CSA (Compressed Sparse Attention) et HCA (Heavily Compressed Attention), qui compresse les données à chaque étape du traitement au lieu de les manipuler en totalité. Sur un contexte d'un million de tokens, V4-Pro ne mobilise que 27 % des ressources de calcul de son prédécesseur V3.2 et seulement 10 % de sa mémoire cache. DeepSeek a également remplacé l'optimiseur d'entraînement AdamW par Muon, ce qui accélère la convergence du modèle et améliore sa stabilité. Cette combinaison d'innovations architecturales explique comment une entreprise opérant sous contraintes, notamment les restrictions américaines sur l'export de puces haut de gamme vers la Chine, parvient à proposer des modèles qui rivalisent selon ses propres benchmarks avec Gemini 3.1 Pro et GPT-5.4, tout en cassant les prix du marché de façon spectaculaire.
Les développeurs et entreprises européens consommant des volumes importants de tokens peuvent réduire leurs coûts d'inférence d'un facteur 10 à 50, mais s'exposent à une dépendance stratégique envers un fournisseur chinois soumis à la juridiction de Pékin.
Dans nos dossiers




