Tracks
次のプロジェクトで Claude Opus 4.7 と DeepSeek V4 のどちらを選ぶべきか迷っているなら、実際のトレードオフがあります。Anthropic のクローズドで洗練されたフラッグシップか、DeepSeek のオープンウェイトで攻めた価格の挑戦者か、という選択です。両者は 2026 年 4 月に数日違いで登場し、エージェント型コーディングや長文脈推論で最前線に近い性能をうたっています。
この比較が興味深いのは、DeepSeek V4 が、エージェント系ベンチマークで Opus 4.7 と同列で語れる初のオープンウェイトモデルだという点です。一方で、Opus 4.7 にはタスク予算、xhigh 努力度、新しい Claude Code の /ultrareview コマンドといった機能が搭載されており、DeepSeek には現時点で同等機能がありません。
この記事では、コーディングとエージェント型ワークフロー、推論と知識タスク、マルチモーダルとツール利用、料金、オープンウェイトのアクセス性という 5 つの観点で Claude Opus 4.7 と DeepSeek V4 を比較します。各モデルの詳しい解説は、単体ガイドである DeepSeek V4 と Claude Opus 4.7 も参照してください。
Claude Opus 4.7 とは?
Claude Opus 4.7 は Anthropic の最新フラッグシップモデルで、2026 年 4 月 16 日にリリースされました。複雑で長時間にわたるエージェント型ワークフロー向けに設計され、特にソフトウェアエンジニアリングと高解像度ビジョンタスクに重点を置いています。画像は長辺 2,576 ピクセル(約 3.75 メガピクセル)まで受け付け、従来の Claude モデルの 3 倍以上の解像度に対応します。
このリリースでは、high と max の間に位置する新しい xhigh 努力度、長時間実行におけるトークン消費を制御するタスク予算(パブリックベータ)、コードレビュー専用の Claude Code 向けスラッシュコマンド /ultrareview が導入されました。Anthropic はまた、Opus 4.7 が Project Glasswing の一環としてリアルタイムのサイバーセーフガードを初めて同梱したモデルであり、より広範な Mythos クラスのリリースに先立つ安全機能の試験車であると述べています。
Opus 4.7 の実力を見るには、Claude Opus 4.7 実践ベンチマークチュートリアルで、Opus 4.7 の自己批判メモリがコーディング性能を向上させるかを検証し、さらに Claude Opus 4.7 API チュートリアルで Anthropic API を使ったデジタイザーアプリの構築手順をご確認ください。ほかのフラッグシップモデルとの比較は、Gemini 3.1 Pro や GPT-5.5 との比較記事を参照してください。
DeepSeek V4 とは?
DeepSeek V4 は中国の AI 研究所 DeepSeek によるプレビュー版で、2026 年 4 月 24 日に公開されました。V4-Pro(総パラメータ 1.6 兆、アクティブ 490 億)と V4-Flash(総 2,840 億、アクティブ 130 億)の 2 種類があり、いずれも Mixture of Experts アーキテクチャを採用し、1 ミリオントークンのコンテキストウィンドウを全サービスのデフォルトで提供します。
目玉は構造的効率です。DeepSeek によると、V4-Pro は 1M トークンのコンテキストシナリオで、単一トークン推論の FLOPs を前世代 V3.2 比で 27%、KV キャッシュを 10% にまで削減できるとのことです。両モデルは MIT ライセンスのオープンウェイトで、Hugging Face で利用可能。API は OpenAI と Anthropic のフォーマットの両方に対応し、思考モード・非思考モードを備えます。
DeepSeek V4 のアーキテクチャ、ベンチマーク、アクセス方法の詳説は DeepSeek V4 ガイドを参照してください。あわせて DeepSeek V4 vs GPT-5.5 の比較もおすすめです。
Claude Opus 4.7 と DeepSeek V4 の比較:項目別対決
詳細に入る前の早見表です。意思決定で重要な観点を両モデルでまとめています。
| 機能 | Claude Opus 4.7 | DeepSeek V4-Pro |
|---|---|---|
| 開発元 | Anthropic(クローズド) | DeepSeek(オープンウェイト、MIT) |
| パラメータ | 非公開 | 総 1.6 兆 / アクティブ 490 億 |
| コンテキストウィンドウ | 入力 100 万トークン / 出力 12.8 万トークン | 入力 100 万トークン |
| API 料金(100 万トークンあたり 入力 / 出力) | $5.00 / $25.00 | $1.74 / $3.48 |
| SWE-bench Pro | 64.3% | 55.4% |
| Terminal-Bench 2.0 | 69.4% | 67.9% |
| GPQA Diamond | 94.2% | 90.1% |
| オープンウェイト | なし | あり(MIT ライセンス) |
| 思考モード | low, medium, high, xhigh, max |
Non-think、Think High、Think Max |
| エージェント統合 | Claude Code、Cursor、タスク予算、/ultrareview |
Claude Code、OpenClaw、OpenCode |
コーディングとエージェント型ワークフロー
エージェント型コーディングは、両モデルの差が最もはっきり出る領域です。オープンソースの Python リポジトリにおける実際の GitHub 課題の解決を評価する SWE-bench Pro では、Opus 4.7 が 64.3%、DeepSeek V4-Pro が 55.4%。プロダクションレベルのコーディング能力の指標として広く用いられるベンチマークで、ほぼ 9 ポイントの差があります。
Terminal-Bench 2.0 では拮抗しています。Opus 4.7 は 69.4%、DeepSeek V4-Pro は 67.9% と、約 1.5 ポイント差。両モデルともこのベンチマークでは明確な首位である GPT-5.5(82.7%)に大きく及びません。
| ベンチマーク | Claude Opus 4.7 | DeepSeek V4-Pro | 注記 |
|---|---|---|---|
| SWE-bench Pro | 64.3% | 55.4% | ベンダー公表;Opus 4.7 は Anthropic のハーネスを使用 |
| Terminal-Bench 2.0 | 69.4% | 67.9% | DeepSeek のスコアは公式リリースノートより |
また Opus 4.7 は、DeepSeek V4 がまだ追いついていない専用のエージェント用ツール群を備えています。xhigh 努力度、トークン消費を制御するタスク予算、Claude Code の /ultrareview はいずれも本番運用を見据えた機能です。DeepSeek V4 は Claude Code、OpenClaw、OpenCode との統合を謳い、自社内でも V4-Pro を用いたエージェント型コーディングをすでに運用しているとしていますが、Claude Code を既に使っているチームにとっては、Opus 4.7 周辺のエコシステムのほうが成熟しています。
リポジトリ単位のエンジニアリング作業には、Opus 4.7 がより有力な選択です。SWE-bench Pro の差は実在し、その周辺のエージェントツール群も充実しています。DeepSeek V4-Pro はターミナル作業では競争力がありますが、より難度の高いコーディングベンチマークで差を詰めることはできていません。
推論と知識タスク
科学・数学の大学院レベルの推論を評価する GPQA Diamond では、Opus 4.7 が 94.2%、DeepSeek V4-Pro が 90.1%。両者とも高水準ですが、フロンティアが飽和しつつある同ベンチマークで 4 ポイント差は注目に値します。Gemini 3.1 Pro は同ベンチマークで 94.3% なので、Opus 4.7 と Gemini は実質同等、DeepSeek はわずかに後れを取ります。
MMLU-Pro では、DeepSeek V4-Pro-Max が 87.5% を記録し、ひと世代前のフロンティアモデルに匹敵します。数学の GSM8K では 92.6%。オープンウェイトモデルとしては強力な数値です。ただし、Anthropic はリリースノートで Opus 4.7 の MMLU-Pro スコアを公開しておらず、直接比較は困難です。
Opus 4.7 が真価を発揮するのは Humanity's Last Exam(科学・数学・人文の大学院レベル問題集)です。ツールなしで 46.9%、ツールありで 54.7% を記録。ツールなしのリーダーボードでは首位、ツールありでは GPT-5.5 の Pro 版(58.7%)に次ぐ 2 位です。DeepSeek V4 Pro も大きくは離れていませんが、ツールありで 48.2% と有意な差があります。
最難関の推論タスクでは、Opus 4.7 を選ぶのが妥当と言えます。
ツール利用とコンピュータ操作
この比較で取り上げた主要なツール利用ベンチマークの双方で、Opus 4.7 がリードしています。複数ツールを組み合わせた複雑なワークフローを評価する MCP-Atlas では 77.3% と、全モデル中で最高。DeepSeek V4 Pro は 73.6% と健闘し、オープンウェイト勢では最高スコアで、GLM-5.1 Thinking(71.8%)を上回ります。
コンピュータのインターフェースを実際に操作してタスクを完了できるかを測る OSWorld-Verified では、Opus 4.7 は 78.0%(Opus 4.6 の 72.7% から上昇)で、GPT-5.5(78.7%)に匹敵します。
DeepSeek V4 のリリースノートには OSWorld のスコアは掲載されていません。公式発表では、V4-Flash は単純なエージェントタスクで V4-Pro と同等に動作し、V4-Pro はエージェント型コーディングのベンチマークでオープンソースの最先端だと述べています。ただし、コンピュータ利用に関する公表値がないため、この観点での直接比較は難しいのが実情です。
意外だったのは、エージェント型検索では DeepSeek V4 Pro が優位に立ったことです。BrowseComp のスコアは 83.4% で、Opus 4.7(79.3%)を上回り、首位の GPT-5.5(84.4%)に 1 ポイント差まで迫ります。
マルチツールのオーケストレーションやコンピュータ操作エージェントがワークフローの要であれば、Opus 4.7 のほうが根拠が豊富です。一方、エージェント型検索に特化する用途では、特に大幅に低価格である点も踏まえると、DeepSeek V4 Pro に分があります。
マルチモーダル機能
Opus 4.7 はビジョンで大幅に進化しました。長辺 2,576 ピクセル(約 3.75 メガピクセル)までの画像入力に対応し、従来の Claude モデルの 3 倍以上の解像度です。グラフや図表に対する視覚的推論を測る CharXiv Reasoning では、ツールなし 82.1%、ツールあり 91.0% と、Opus 4.6 の 69.1% / 84.7% から大きく向上しています。
DeepSeek V4 のリリースノートには、マルチモーダルのベンチマークスコアや詳細な画像入力仕様は含まれていません。公式発表はテキスト中心のエージェント型コーディングや長文脈の効率に焦点を当てています。高解像度の画像解析、密なチャート読解、スクリーンショットの解析を要するコンピュータ操作エージェントといったワークフローでは、現時点の公表情報に基づけば Opus 4.7 が明確な選択肢です。
料金
ここは DeepSeek V4 の最も強力な訴求点です。DeepSeek V4-Pro は入力 100 万トークンあたり $1.74、出力 100 万トークンあたり $3.48。Opus 4.7 は入力 $5.00、出力 $25.00。出力トークン単価だけで見ると、Opus 4.7 は V4-Pro の 7 倍以上のコストです。
DeepSeek V4-Flash はさらに低価格で、入力 100 万トークンあたり $0.14、出力 100 万トークンあたり $0.28。V4-Flash の推論性能で十分な高スループットのワークロードでは、Opus 4.7 とのコスト差は劇的です。DeepSeek V4 ガイドでは、V4-Flash は価格面で GPT-5.4 Nano のような小型モデルすら大きく下回ると指摘しています。
Opus 4.7 の料金には重要な但し書きがあります。このモデルは新しいトークナイザーを搭載しており、同一入力がコンテンツ種別によって Opus 4.6 比で約 1.0~1.35 倍のトークン数になる可能性があります。高い努力度では出力トークンも増えます。Anthropic は、実トラフィックでのトークン使用量を測定し、トークン単価がそのままコストに直結すると仮定しないよう推奨しています。
| モデル | 入力(100 万トークンあたり) | 出力(100 万トークンあたり) |
|---|---|---|
| Claude Opus 4.7 | $5.00 | $25.00 |
| DeepSeek V4-Pro | $1.74 | $3.48 |
| DeepSeek V4-Flash | $0.14 | $0.28 |
Opus 4.7 と V4-Pro のベンチマーク差が許容できる高スループットのエージェント型パイプラインを運用するチームにとって、DeepSeek V4-Pro の料金は強力な根拠になります。出力トークンのコスト差は、長時間走るエージェントワークフローの経済性を左右し得ます。
オープンウェイトのアクセス性と導入の柔軟性
DeepSeek V4 は MIT ライセンスのオープンウェイトです。V4-Pro と V4-Flash のウェイトは Hugging Face で公開されています。V4-Pro は 865GB のダウンロードが必要で、コンシューマ向けハードウェアでは現実的ではありませんが、自前でホスティングできるインフラを持つチームにとっては、MIT ライセンスにより API への依存がなく、展開を完全に制御できます。
Opus 4.7 はクローズドです。Claude API、Amazon Bedrock、Google Cloud の Vertex AI、Microsoft Foundry から利用可能で、セルフホストの選択肢はありません。規制産業や厳格なデータレジデンシー要件のあるチームにとって、クラウド限定という制約は実質的な制限となり得ますが、主要 3 大クラウドで利用可能な点は推論の実行場所に一定の柔軟性をもたらします。
DeepSeek は OpenAI と Anthropic の両 API フォーマットをサポートしており、既存コードを V4-Pro に移行するにはモデル名のパラメータ更新のみで済む場合が多いです。なお、従来の deepseek-chat と deepseek-reasoner エンドポイントは 2026 年 7 月 24 日に廃止されるため、利用中のチームは deepseek-v4-flash または deepseek-v4-pro への移行計画を立ててください。
Claude Opus 4.7 と DeepSeek V4 を選ぶ基準
主に 3 点に集約されます。難度の高いコーディングタスクでのベンチマーク差をどれだけ重視するか、オープンウェイトのアクセスが必須かどうか、そしてスケール時のトークン予算です。
| ユースケース | 推奨 | 理由 |
|---|---|---|
| 難度の高いリポジトリ単位のコーディング(SWE-bench 系タスク) | Claude Opus 4.7 | SWE-bench Pro で 64.3% 対 55.4% は本番エンジニアリングで意味のある差 |
| マルチツールのオーケストレーションとコンピュータ操作エージェント | Claude Opus 4.7 | MCP-Atlas(77.3%)と OSWorld-Verified(78.0%)でリード;DeepSeek は後者を未公表 |
| 高解像度の画像解析と視覚的推論 | Claude Opus 4.7 | CharXiv のツールありで 91.0%;最大約 3.75 メガピクセルの画像をサポート |
| コスト重視の高スループットなエージェント型パイプライン | DeepSeek V4-Pro | 出力 $3.48 対 Opus 4.7 の $25.00;出力トークン単価で 7 倍以上安価 |
| セルフホストまたはエアギャップ環境での導入 | DeepSeek V4 | MIT ライセンス、Hugging Face 上のウェイト;Opus 4.7 はクラウド限定 |
| 予算重視で推論要件が中程度のワークロード | DeepSeek V4-Flash | 100 万トークンあたり入力 $0.14 / 出力 $0.28;多くのタスクで V4-Pro に近い推論 |
| Claude Code を用いた長期ホライゾンのエージェント型コーディング | Claude Opus 4.7 | タスク予算、xhigh 努力度、/ultrareview がこのワークフローに特化 |
| オープンソース研究やファインチューニング | DeepSeek V4 | MIT ライセンスにより改変・再配布が可能;Opus 4.7 に同等の選択肢はなし |
Claude Opus 4.7 を選ぶべき場合
- 難度の高いソフトウェアエンジニアリングが中心。 SWE-bench Pro で V4-Pro に 8.9 ポイント差を付けており、この比較で最大の差別化要因です。Cursor(CursorBench で 70% 対 58%)や Rakuten(Opus 4.6 比で本番タスク解決数が 3 倍)など、複数の第三者でも裏付けられています。
- コンピュータ操作に依存する本番エージェントを構築している。 Opus 4.7 は MCP-Atlas で 77.3% と首位、OSWorld-Verified でも 78.0% と強力。DeepSeek V4 は同指標を公表していません。
- 高解像度ビジョンがパイプラインに含まれる。 3.75 メガピクセル対応への拡張と CharXiv Reasoning の 13 ポイント上昇により、密なチャート抽出や、複雑なスクリーンショットを読むコンピュータ操作エージェントなどの用途が広がります。
- すでに Claude Code を活用している場合は、タスク予算、xhigh 努力度、/ultrareview を含むフルスタックのエージェント用ツール群を利用できます。
DeepSeek V4 を選ぶべき場合
- コストが最優先。 出力 100 万トークンあたり $3.48(Opus 4.7 は $25.00)で、出力中心のワークロードでは V4-Pro が圧倒的に低コスト。V4-Flash は $0.28 と、コスト帯がまったく異なります。
- セルフホストやエアギャップ環境が必要。 MIT ライセンスと Hugging Face での提供により、V4 が唯一の選択肢です。Opus 4.7 はクラウド限定です。
- モデルのウェイトをファインチューニングや改変したい。 MIT ライセンスがそれを許可します。Anthropic の条件では認められていません。
- 高スループットのパイプラインを運用しており、Opus 4.7 の経済性がスケールで合わない一方、最難関タスクでの性能トレードオフを受け入れられる場合。
まとめ
予算制約なしで本番のエージェント型コーディングに 1 つ選ぶなら、Opus 4.7(もしくは GPT-5.5)を使います。SWE-bench Pro の差は確かで、ツール利用ベンチマークは比較対象中で最良、Claude Code 周辺のエージェント用ツール群も成熟しています。ビジョンの強化だけでも、対応解像度が 1.15MP から 3.75MP に伸び、CharXiv で 13 ポイント向上しており、マルチモーダルのワークフローには意味のあるアップグレードです。
とはいえ、DeepSeek V4-Pro はクローズドな最前線モデルに対する、最も説得力のあるオープンウェイトの挑戦者です。大規模運用では価格の論点は無視できません。1 日あたり数百万トークンの出力を回すなら、100 万トークンあたり $3.48 と $25.00 の差は、実現可能性の前提を変えます。導入の柔軟性やファインチューニングを求めるチームにとって、MIT ライセンスの価値は本物です。
実務的な推奨は次のとおりです。エラー削減や監督コスト低減に直結する最難関のコーディング・エージェントタスクには Opus 4.7 を。コストが重要でタスクの複雑性が中程度なら DeepSeek V4-Pro を。コストを極小化したい大規模・低リスクのワークロードには V4-Flash を。多くのケースで、両モデルは同じユーザーを争っているわけではありません。
実際にこれらのモデルでワークフローを構築したい場合は、フロンティアモデルを用いたエージェントシステムの構築と展開を扱う AI Agent Fundamentals スキルトラックから始めるのがおすすめです。Opus 4.7 と DeepSeek V4 の双方で通用するプロンプトエンジニアリングについては、Understanding Prompt Engineering コースが良い出発点になります。
Claude Opus 4.7 と DeepSeek V4 に関するよくある質問
ソフトウェアエンジニアリングにはどちらのモデルが適していますか?
Claude Opus 4.7 が大きくリードしています。SWE-bench Pro で 64.3%(DeepSeek V4-Pro は 55.4%)を記録し、タスク予算、xhigh 努力度、 Claude Code の /ultrareview といったエージェント用の専用ツールを備えています。
DeepSeek V4 はセルフホストできますか?
はい。V4-Pro と V4-Flash はどちらも MIT ライセンスのオープンウェイトで、Hugging Face から入手できます。V4-Pro は約 865GB と大容量のため、相応のインフラが必要です。Claude Opus 4.7 はクラウド限定で、セルフホストはできません。
DeepSeek V4-Pro は Claude Opus 4.7 と比べてどれくらい安いですか?
DeepSeek V4-Pro は出力 100 万トークンあたり $3.48、Opus 4.7 は $25.00 で、出力では 7 倍以上安価です。V4-Flash はさらに手頃で、出力 100 万トークンあたり $0.28 です。
DeepSeek V4 は画像などのマルチモーダル入力に対応していますか?
DeepSeek V4 のリリースノートには、マルチモーダルのベンチマークや詳細な画像入力仕様は記載されていません。高解像度の画像解析や視覚的推論タスクには、最大約 3.75 メガピクセルに対応する Opus 4.7 のほうが根拠に富む選択です。
既存の OpenAI や Anthropic の API コードを DeepSeek V4 で使えますか?
はい。DeepSeek V4 の API は OpenAI の ChatCompletions と Anthropic の Messages の両フォーマットをサポートしているため、通常はモデル名パラメータの更新だけで切り替え可能です。なお、従来の deepseek-chat と deepseek-reasoner エンドポイントは 2026 年 7 月 24 日に廃止されます。