Cursus
Après des mois de rumeurs, et dans le sillage immédiat de GPT-5.5 et Claude Opus 4.7, DeepSeek a enfin lancé DeepSeek V4. La sortie prend la forme de deux modèles en aperçu, V4-Pro et V4-Flash, qui arrivent sur le marché avec des prix agressifs et des performances proches de l’état de l’art.
DeepSeek V4-Pro revendique 1,6 billion de paramètres au total, avec une fenêtre de contexte par défaut d’un million de tokens. DeepSeek affirme qu’il n’accuse que 3 à 6 mois de retard sur les meilleurs modèles fermés, tout en coûtant une fraction du prix de concurrents comme OpenAI et Anthropic.
Dans cet article, je reviens sur la sortie de DeepSeek V4 : ses fonctions clés, ses performances aux benchmarks et sa position face à la concurrence. Vous pouvez également consulter nos guides sur GPT-5.5 et Claude Opus 4.7.
DeepSeek V4 en bref
- V4 existe en deux versions : Pro (1,6 billion de paramètres) et Flash (284 milliards de paramètres).
- Les deux modèles offrent par défaut une fenêtre de contexte d’1 million de tokens.
- Pro coûte 1,74 $ en entrée / 3,48 $ en sortie par million de tokens, bien en dessous de GPT-5.5 et Opus 4.7.
- Disponibles via API, interface web et poids ouverts (licence MIT).
Qu’est-ce que DeepSeek V4 ?
DeepSeek V4 est la nouvelle série très attendue de grands modèles de langage à poids ouverts du laboratoire chinois DeepSeek. Lancé le 24 avril 2026, la série V4 propose deux versions : DeepSeek-V4-Pro et DeepSeek-V4-Flash. Les deux s’appuient sur une architecture Mixture of Experts (MoE) et offrent par défaut une immense fenêtre de contexte d’1 million de tokens.
Ce qui fait de DeepSeek V4 une sortie majeure pour le secteur, c’est la combinaison de performances proches de l’état de l’art et d’une politique tarifaire ultra-compétitive. Le modèle V4-Pro annonce 1,6 billion de paramètres au total (49 milliards actifs), ce qui en fait le plus grand modèle à poids ouverts disponible à ce jour.
Malgré sa taille, DeepSeek estime n’avoir que 3 à 6 mois de retard sur les modèles fermés les plus avancés, tout en coûtant une fraction du prix de concurrents comme OpenAI et Anthropic.
Fonctions clés de DeepSeek V4
Passons en revue quelques points forts de cette version :
Innovation structurelle et efficacité en contexte 1M
Le point fort de DeepSeek V4 réside dans sa gestion très efficace des longs contextes.
D’après les notes techniques, la série V4 utilise une architecture d’attention hybride combinant Compressed Sparse Attention (CSA) et Heavily Compressed Attention (HCA).
Grâce à ces choix structurels, le contexte d’1 million de tokens devient la norme sur l’ensemble des services DeepSeek.
DeepSeek affirme que, dans un scénario à 1 million de tokens de contexte, DeepSeek-V4-Pro ne requiert que 27 % des FLOPs d’inference à un token et seulement 10 % du cache KV par rapport à son prédécesseur, DeepSeek-V3.2.
Trois modes d’effort de raisonnement
Pour offrir un contrôle fin entre latence et performance, DeepSeek V4 propose trois modes de raisonnement :
- Non-think : Réponses rapides et intuitives pour les tâches quotidiennes et les décisions à faible risque.
- Think High : Analyse logique consciente, plus lente mais très précise pour les problèmes complexes.
- Think Max : Pousse les capacités de raisonnement dans leurs derniers retranchements pour explorer les limites du modèle.
Capacités agentiques renforcées
DeepSeek V4 serait optimisé pour le coding agentique. Les notes de version indiquent une intégration sérée avec des agents IA de référence comme Claude Code, OpenClaw et OpenCode, et il alimente déjà l’infrastructure de coding agentique interne de DeepSeek.
Optimisations avancées d’entraînement
Sous le capot, DeepSeek a introduit les Manifold-Constrained Hyper-Connections (mHC) pour renforcer les connexions résiduelles et stabiliser la propagation du signal. L’équipe est également passée à l’optimiseur Muon pour une convergence plus rapide et une plus grande stabilité d’entraînement, en pré-entraînant les modèles sur plus de 32 billions de tokens variés.
Benchmarks de DeepSeek V4
Selon les résultats internes de DeepSeek, DeepSeek V4 affiche des performances impressionnantes, en particulier lorsqu’on pousse ses limites de raisonnement au maximum (DeepSeek-V4-Pro-Max).
D’après les notes officielles, voici comment le modèle se positionne face au reste du marché :
Connaissances et raisonnement
Pro-Max surclasse facilement les autres modèles open source et dépasse d’anciens modèles de pointe comme GPT-5.2. Il obtient un très compétitif 87,5 % sur MMLU-Pro et 90,1 % sur GPQA Diamond, ainsi qu’un excellent 92,6 % sur GSM8K en mathématiques. Même s’il reste à quelques mois de la toute dernière génération (GPT-5.4 et Gemini-3.1-Pro), l’écart de connaissances s’est nettement réduit.
Tâches agentiques
Pro-Max est au niveau des meilleurs modèles ouverts, avec 67,9 % sur Terminal Bench 2.0 et 55,4 % sur SWE-Bench Pro. S’il reste légèrement derrière les tout derniers modèles fermés sur les classements publics, des tests internes montrent qu’il dépasse Claude Sonnet 4.5 et se rapproche des niveaux d’Opus 4.5.
Long contexte
La fenêtre d’1 million de tokens n’est pas qu’un argument marketing. Pro-Max y obtient des résultats très solides, avec 83,5 % sur les tests MRCR 1M (MMR) de recherche d’aiguille dans une botte de foin. Cela dépasse même Gemini-3.1-Pro sur les benchmarks académiques de long contexte.
DeepSeek V4 Pro vs Flash
En raison de sa taille plus réduite, Flash-Max obtient naturellement des scores inférieurs en connaissances pures et peine sur les workflows agentiques les plus complexes. Toutefois, en lui allouant un « budget de réflexion » plus important, il atteint des scores de raisonnement comparables à d’anciens modèles de pointe, ce qui en fait une option extrêmement rentable pour des charges importantes.

Comment accéder à DeepSeek V4 ?
Plusieurs options sont déjà disponibles :
- Interface web : Vous pouvez essayer les deux modèles immédiatement sur chat.deepseek.com en mode Instant ou Expert.
- Accès API : L’API est disponible dès aujourd’hui. Les développeurs n’ont qu’à renseigner
deepseek-v4-prooudeepseek-v4-flashcomme nom de modèle. L’API reste compatible avec les formats OpenAI ChatCompletions et Anthropic. (Remarque : les anciens modèlesdeepseek-chatetdeepseek-reasonerseront retirés le 24 juillet 2026). - Poids ouverts : Les deux modèles sont publiés sous licence MIT. Vous pouvez télécharger les poids directement depuis Hugging Face ou ModelScope. Pro représente un téléchargement de 865 Go, contre 160 Go pour Flash, bien plus abordable.
DeepSeek V4 face aux concurrents
La semaine dernière a vu la sortie de GPT-5.5 d’OpenAI et de Claude Opus 4.7 d’Anthropic. Si ces modèles affichent des capacités de très haut niveau, notamment en raisonnement sur long contexte et en coding agentique, DeepSeek V4 se distingue par sa valeur et son accessibilité ouverte.
Voici comment DeepSeek-V4-Pro se compare aux nouveaux porte-étendards d’OpenAI et d’Anthropic :
|
Fonction/Benchmark |
DeepSeek V4 Pro |
GPT-5.5 |
Claude Opus 4.7 |
|
Tarifs API (Entrée / Sortie par 1M) |
1,74 $ / 3,48 $ |
5,00 $ / 30,00 $ |
5,00 $ / 25,00 $ |
|
Fenêtre de contexte |
1M tokens |
~1M tokens |
~1M tokens |
|
SWE-bench Pro (Coding) |
55,4 % |
58,6 % |
64,3 % |
|
Terminal-Bench 2.0 (Agentique) |
67,9 % |
82,7 % |
69,4 % |
|
Poids ouverts |
Oui (licence MIT) |
Non (fermé) |
Non (fermé) |
Remarque : pour les utilisateurs à budget serré, DeepSeek V4 Flash ne coûte que 0,14 $ par 1M de tokens d’entrée et 0,28 $ par 1M de tokens de sortie, moins cher que même de petits modèles comme GPT-5.4 Nano.
Que vaut DeepSeek V4 ?
DeepSeek V4 est une sortie particulièrement disruptive. D’après les benchmarks auto-déclarés par DeepSeek, le modèle Pro n’est qu’à 3 à 6 mois des modèles de pointe (comme GPT-5.4 et Gemini-3.1-Pro) sur la trajectoire de développement.
Cependant, à l’échelle du marché, la performance brute ne fait que la moitié de l’histoire. Le fait marquant de DeepSeek V4 réside dans son efficacité de contexte très élevée et ses prix planchers.
Offrir des capacités proches de l’état de l’art, dont une fenêtre de contexte à 1M de tokens, pour une fraction du coût de GPT-5.5 ou Opus 4.7, fait de DeepSeek V4 l’option la plus pertinente pour des tâches d’entreprise à fort volume, les chercheurs open source et les développeurs attentifs à leur budget.
Cas d’usage de DeepSeek V4
Compte tenu de ces atouts, voici quelques domaines où V4 excelle selon moi :
- Ingénierie logicielle automatisée : De bons résultats sur les benchmarks agentiques et l’intégration avec des outils comme OpenClaw font de V4-Pro un excellent candidat pour le refactoring et le débogage autonomes de bases de code.
- Traitement de documents à grand volume : Les coûts réduits du calcul en contexte 1M permettent aux analystes financiers et aux équipes juridiques de traiter des montagnes de PDFs, 10-K et contrats pour quelques centimes.
- Déploiement local et recherche : Grâce à la licence MIT, les chercheurs peuvent appliquer la quantification (notamment sur le modèle Flash de 160 Go) et expérimenter localement une IA de niveau état de l’art sur du matériel grand public haut de gamme.
Conclusion
DeepSeek V4 constitue un grand pas en avant pour la communauté IA open source. Même si GPT-5.5 et Claude Opus 4.7 le devancent sur les tout derniers benchmarks de coding et de raisonnement, DeepSeek V4 démocratise l’accès aux fenêtres de contexte d’1 million de tokens et aux workflows agentiques complexes.
Si vous souhaitez garder une longueur d’avance et apprendre à intégrer ces modèles de pointe dans vos propres workflows, nous vous recommandons quelques ressources. En particulier, notre cours Understanding Prompt Engineering pour affiner votre manière d’interagir avec des modèles comme DeepSeek, ou notre parcours de compétences AI Agent Fundamentals si vous souhaitez commencer à construire des systèmes agentiques à l’échelle.
FAQ sur DeepSeek V4
DeepSeek V4 est-il open source ?
Oui. DeepSeek-V4-Pro et DeepSeek-V4-Flash sont des modèles à poids ouverts publiés sous la licence MIT, très permissive. Cela permet aux développeurs et aux chercheurs d’utiliser, de modifier et de déployer les modèles à des fins commerciales.
Quelle est la fenêtre de contexte de DeepSeek V4 ?
Les modèles Pro et Flash proposent tous deux, par défaut, une fenêtre de contexte d’1 million de tokens. Grâce à sa nouvelle architecture d’attention hybride, DeepSeek V4 gère cet immense contexte avec une fraction des coûts de calcul et de mémoire des anciens modèles.
Combien coûte l’API DeepSeek V4 ?
Les tarifs sont très compétitifs. DeepSeek-V4-Flash coûte seulement 0,14 $ par 1M de tokens d’entrée et 0,28 $ par 1M de tokens de sortie. DeepSeek-V4-Pro coûte 1,74 $ par 1M de tokens d’entrée et 3,48 $ par 1M de tokens de sortie.
Quelle est la taille des modèles DeepSeek V4 ?
DeepSeek utilise une architecture Mixture of Experts (MoE). Le modèle Pro contient 1,6 billion de paramètres au total (49 milliards actifs) et nécessite un téléchargement de 865 Go. Le modèle Flash contient 284 milliards de paramètres (13 milliards actifs) et nécessite un téléchargement de 160 Go.
DeepSeek V4 dépasse-t-il GPT-5.5 et Claude Opus 4.7 ?
En capacité pure, non. D’après les données auto-déclarées de DeepSeek, le modèle V4-Pro accuse environ 3 à 6 mois de retard sur les modèles fermés état de l’art sur les benchmarks de coding et de raisonnement les plus difficiles. En revanche, il offre des performances proches de la frontière pour environ un tiers du coût API, ce qui est hautement perturbateur.

Rédacteur et éditeur de contenu dans le domaine des technologies de l'information et de la communication. Vous êtes déterminé à explorer les tendances en matière de données et enthousiaste à l'idée d'apprendre la science des données.