メインコンテンツへスキップ

DeepSeek V4:機能、ベンチマーク、比較

DeepSeek V4 の機能、価格、100 万トークンのコンテキスト効率を解説。V4 Pro と Flash のベンチマークを、GPT-5.5 や Opus 4.7 の最前線モデルと比較します。
更新 2026年4月24日  · 7 分 読む

数か月にわたる噂を経て、GPT-5.5 や Claude Opus 4.7 の発表に続き、DeepSeek がついに DeepSeek V4 をリリースしました。リリースは V4-Pro と V4-Flash の2つのプレビューモデルの形で提供され、攻めた価格設定とフロンティアに迫る性能で市場に登場しています。

DeepSeek V4-Pro は総パラメータ数 1.6 兆、デフォルトで 100 万トークンのコンテキストウィンドウを備えています。DeepSeek によると、最先端のクローズドモデルに対して遅れはわずか 3〜6 か月でありながら、OpenAI や Anthropic などの競合に比べて大幅に低コストだと主張しています。

この記事では、DeepSeek V4 のリリースについて、主な機能やベンチマークの結果、競合との比較を取り上げます。あわせて GPT-5.5 Claude Opus 4.7 のガイドもご覧ください。

DeepSeek V4 の概要

  • V4 には 2 種類あります:Pro(1.6 兆パラメータ)と Flash(2840 億パラメータ)。
  • 両モデルともデフォルトで 100 万トークンのコンテキストウィンドウを搭載。
  • Pro は 100 万トークンあたり入力 $1.74/出力 $3.48。GPT-5.5 や Opus 4.7 を大きく下回る価格設定。
  • API、Web インターフェース、そしてオープンウェイト(MIT ライセンス)で提供。

DeepSeek V4 とは?

DeepSeek V4 は、中国の AI 研究所 DeepSeek によるオープンウェイト大規模言語モデルの新シリーズです。2026年4月24日にリリースされた V4 シリーズには、DeepSeek-V4-ProDeepSeek-V4-Flash の 2 つのバージョンがあり、どちらも Mixture of Experts(MoE)アーキテクチャを採用し、デフォルトで 100 万トークンの巨大なコンテキストウィンドウを提供します。

DeepSeek V4 を業界にとって大きなリリースたらしめているのは、フロンティアに近い性能と、非常に競争力の高い価格設定を両立している点です。V4-Pro モデルは総パラメータ数 1.6 兆(有効 490 億)を誇り、現在入手可能なオープンウェイトモデルとしては最大級です。

その規模にもかかわらず、DeepSeek は、最新のクローズドモデルに対する遅れは 3〜6 か月にすぎず、OpenAI や Anthropic といった競合に比べて価格はごく一部だと述べています。

DeepSeek V4 の主な機能

最新リリースの注目機能を見ていきましょう。

構造的イノベーションと 100 万トークン文脈での効率

DeepSeek V4 の目玉は、長大なコンテキストを非常に効率よく扱える点です。

技術ノートによると、V4 シリーズは Compressed Sparse Attention(CSA)と Heavily Compressed Attention(HCA)を組み合わせたハイブリッド・アテンション・アーキテクチャを採用しています。

これらの構造的変更により、100 万トークンのコンテキストが DeepSeek のすべてのサービスで標準となりました。

DeepSeek によれば、100 万トークンのコンテキスト環境では、DeepSeek-V4-Pro は単一トークン推論の FLOPs が従来比 27%、KV キャッシュはわずか 10% で済み、前世代の DeepSeek-V3.2 と比べて大幅に効率化されています。

3 種類の推論エフォート・モード

レイテンシと性能を細かく制御できるよう、DeepSeek V4 には 3 つの推論モードがあります。

  • Non-think:日常的なタスクやリスクの低い判断に適した高速で直感的な応答。
  • Think High:複雑な問題解決に向けた、速度は落ちるものの高精度な論理的分析。
  • Think Max:モデルの限界に迫る最大限の推論能力を発揮し、能力の境界を探るモード。

強化されたエージェント機能

DeepSeek V4 はエージェント的なコーディング向けに最適化されているようです。リリースノートによれば、Claude Code、OpenClaw、OpenCode といった主要な AI エージェントとシームレスに統合し、社内のエージェント型コーディング基盤の駆動にもすでに活用されています。

高度な学習最適化

内部的には、DeepSeek は残差接続を強化し信号伝播を安定化するために Manifold-Constrained Hyper-Connections(mHC) を導入。また、収束を高速化し学習の安定性を高めるために Muon Optimizer に切り替え、320 億を超える多様なトークンで事前学習を行いました。

DeepSeek V4 のベンチマーク

DeepSeek の社内結果によれば、DeepSeek V4 は特に最大限の推論設定(DeepSeek-V4-Pro-Max)で非常に優れた性能を示します。

公式リリースノートに基づくと、業界全体との比較は次のとおりです。

知識と推論

Pro-Max は他のオープンソースモデルを容易に上回り、GPT-5.2 のような一世代前のフロンティアモデルにも勝ります。MMLU-Pro で87.5%、GPQA Diamond で90.1%、数学の GSM8K で92.6% という非常に競争力のあるスコアを記録。最先端(GPT-5.4 や Gemini-3.1-Pro)には数か月及ばないものの、知識面でのギャップを大きく縮めています。

エージェントタスク

Pro-Max は主要なオープンモデルと同等で、Terminal Bench 2.0 で67.9%、SWE-Bench Pro で55.4% を記録。公開リーダーボードでは最新のクローズドモデルにわずかに及ばないものの、社内テストでは Claude Sonnet 4.5 を上回り、Opus 4.5 に迫る水準を示しています。

長文コンテキスト

100 万トークンのウィンドウは見せかけではありません。Pro-Max はこの領域で非常に強力で、MRCR 1M(MMR)の針探しリトリーバルテストで 83.5% を達成。学術系の長文コンテキスト系ベンチマークでは Gemini-3.1-Pro を上回っています。

DeepSeek V4 Pro と Flash の比較

Flash-Max はサイズが小さい分、知識面の素点は自然と低く、最も複雑なエージェントワークフローでは苦戦します。しかし、より大きな「思考予算」を与えると、旧世代のフロンティアモデルに匹敵する推論スコアを達成し、重いワークロードに対して非常にコスト効率の高い選択肢となります。

DeepSeek v4 benchmarks

画像出典

DeepSeek V4 へのアクセス方法

現時点で DeepSeek V4 にアクセスする方法はいくつかあります。

  • Web インターフェース:chat.deepseek.com で、Instant Mode または Expert Mode を使ってすぐに両モデルを試せます。
  • API アクセス:API は本日利用可能です。開発者はモデル指定を deepseek-v4-pro または deepseek-v4-flash に更新するだけです。API は OpenAI ChatCompletions と Anthropic API の両形式と互換性を保っています。(注:従来の deepseek-chat および deepseek-reasoner モデルは 2026 年 7 月 24 日に廃止予定)
  • オープンウェイト:両モデルは MIT ライセンスで公開されています。Hugging Face または ModelScope から直接ウェイトをダウンロードできます。Pro は 865GB、Flash はより扱いやすい 160GB です。

DeepSeek V4 と競合の比較

直近1週間で、OpenAI の GPT-5.5 と Anthropic の Claude Opus 4.7 がリリースされました。これらのモデルは特に長文推論やエージェント的コーディングで最上位の能力を誇りますが、DeepSeek V4 は価値とオープンなアクセス性で強く競合します。

以下は、DeepSeek-V4-Pro を OpenAI と Anthropic の新たなフラッグシップモデルと比較したものです。

機能/ベンチマーク

DeepSeek V4 Pro

GPT-5.5

Claude Opus 4.7

API 価格(入力/出力、100 万トークンあたり)

$1.74 / $3.48

$5.00 / $30.00

$5.00 / $25.00

コンテキストウィンドウ

100 万トークン

約 100 万トークン

約 100 万トークン

SWE-bench Pro(コーディング)

55.4%

58.6%

64.3%

Terminal-Bench 2.0(エージェント)

67.9%

82.7%

69.4%

オープンウェイト

あり(MIT ライセンス)

なし(クローズド)

なし(クローズド)

注:コスト重視のユーザーには、DeepSeek V4 Flash が 100 万入力トークンあたり $0.14、100 万出力トークンあたり $0.28 と、GPT-5.4 Nano のような小型モデルさえ下回る価格です。

DeepSeek V4 はどれほど優れている?

DeepSeek V4 は非常に破壊的なリリースです。DeepSeek 自身のベンチマークによれば、Pro モデルは最先端のフロンティアモデル(GPT-5.4 や Gemini-3.1-Pro など)に対して、開発の歩みで 3〜6 か月程度の遅れにとどまっています。

ただし、業界全体の文脈を見ると、生の性能はストーリーの半分にすぎません。DeepSeek V4 の見出しは、超高いコンテキスト効率と破格の価格にあります。

1M トークンのコンテキストウィンドウを含むフロンティア級の能力を、GPT-5.5 や Opus 4.7 のごく一部のコストで提供できる点は、大量業務の企業タスク、オープンソース研究者、予算重視の開発者にとって最も魅力的な選択肢となります。

DeepSeek V4 のユースケース

これらの強みを踏まえると、V4 が特に力を発揮する領域は次のとおりです。

  • 自動化されたソフトウェアエンジニアリング:強力なエージェント系ベンチマークと OpenClaw などのツール連携により、V4-Pro は自律的なコードベースのリファクタリングやデバッグに有力です。
  • 大量ドキュメント処理:100 万トークン文脈での計算コスト削減により、金融アナリストや法務チームが PDF、10-K、契約書の山を低コストで処理できます。
  • ローカル展開と研究:MIT ライセンスのため、研究者は量子化(特に 160GB の Flash モデル)を施して、ハイエンド民生ハードウェア上でフロンティア級 AI をローカルに実験できます。

まとめ

DeepSeek V4 は、オープンソース AI コミュニティにとって大きな前進です。GPT-5.5 や Claude Opus 4.7 は、最難関のコーディングや推論ベンチマークで一歩先んじる場面があるかもしれませんが、DeepSeek V4 は 100 万トークンのコンテキストウィンドウや複雑なエージェント型ワークフローへのアクセスを民主化します。

最新モデルをワークフローに取り入れて先行者優位を築くには、ぜひ当社のリソースをご覧ください。特に、Understanding Prompt Engineering コースで DeepSeek のようなモデルとの対話を磨くか、AI Agent Fundamentals スキルトラックで、スケーラブルなエージェントシステムの構築を始めましょう。

DeepSeek V4 に関するよくある質問

DeepSeek V4 はオープンソースですか?

はい。DeepSeek-V4-Pro と DeepSeek-V4-Flash はどちらも、非常に寛容な MIT ライセンスの下で公開されたオープンウェイトモデルです。これにより、開発者や研究者は商用利用・改変・デプロイが可能です。

DeepSeek V4 のコンテキストウィンドウはどれくらいですか?

Pro と Flash の両モデルは、デフォルトで 100 万トークンのコンテキストウィンドウを備えています。新しいハイブリッド・アテンション・アーキテクチャのおかげで、DeepSeek V4 は旧モデルに比べてごく一部の計算資源とメモリで、この巨大なコンテキストを扱えます。

DeepSeek V4 の API 料金はいくらですか?

価格は非常に競争力があります。DeepSeek-V4-Flash は 100 万入力トークンあたり $0.14、100 万出力トークンあたり $0.28。DeepSeek-V4-Pro は 100 万入力トークンあたり $1.74、100 万出力トークンあたり $3.48 です。

DeepSeek V4 モデルのサイズはどれくらいですか?

DeepSeek は Mixture of Experts(MoE)アーキテクチャを採用しています。Pro モデルは総パラメータ 1.6 兆(有効 490 億)で、ダウンロードサイズは 865GB。Flash モデルは 2840 億(有効 130 億)で、ダウンロードサイズは 160GB です。

DeepSeek V4 は GPT-5.5 や Claude Opus 4.7 を上回りますか?

純粋な能力で言えば、いいえ。DeepSeek の自己申告データでは、V4-Pro は最難関のコーディングや推論ベンチマークで、最先端のクローズドモデルに対して約 3〜6 か月の遅れがあると示されています。ただし、API コストは約 3 分の 1 でフロンティア級の性能を提供しており、非常に破壊的です。

トピック

DataCamp の人気コース

Tracks

AIの基礎

10時間
AI の基礎を理解し、仕事で AI を効果的に活用する方法を学び、ChatGPT などのモデルを詳しく調べて、動的な AI 環境をナビゲートします。
詳細を見るRight Arrow
コースを開始
もっと見るRight Arrow