Lewati ke konten utama

DeepSeek V4: Fitur, Benchmark, dan Perbandingan

Pelajari fitur DeepSeek V4, harga, dan efisiensi konteks 1M. Kami membandingkan benchmark V4 Pro dan Flash dengan model frontier seperti GPT-5.5 dan Opus 4.7.
Diperbarui 24 Apr 2026  · 7 mnt baca

Setelah berbulan-bulan rumor dan menyusul kehadiran GPT-5.5 serta Claude Opus 4.7, DeepSeek akhirnya merilis DeepSeek V4. Rilis ini hadir dalam bentuk dua model pratinjau, V4-Pro dan V4-Flash, memasuki pasar dengan harga agresif dan performa yang nyaris setara model frontier.

DeepSeek V4-Pro mengusung total 1,6 triliun parameter dengan jendela konteks 1 juta token secara default. DeepSeek mengklaim model ini hanya tertinggal 3 hingga 6 bulan dari model tertutup terdepan, sekaligus berbiaya jauh lebih rendah dibanding pesaing seperti OpenAI dan Anthropic.

Di artikel ini, saya akan membahas rilis DeepSeek V4, menyoroti fitur-fitur kunci, performa benchmark, dan perbandingannya dengan kompetitor. Anda juga dapat melihat panduan kami untuk GPT-5.5 dan Claude Opus 4.7.

Gambaran singkat DeepSeek V4

  • V4 hadir dalam dua varian: Pro (1,6T parameter) dan Flash (284B parameter).
  • Kedua model memiliki jendela konteks 1 juta token secara default.
  • Pro berharga $1,74 input / $3,48 output per 1 juta token, jauh lebih murah dari GPT-5.5 dan Opus 4.7.
  • Tersedia melalui API, antarmuka web, dan bobot terbuka (Lisensi MIT).

Apa itu DeepSeek V4?

DeepSeek V4 adalah seri baru model bahasa besar berbobot terbuka yang sangat dinanti dari lab AI Tiongkok, DeepSeek. Dirilis pada 24 April 2026, seri V4 hadir dalam dua versi: DeepSeek-V4-Pro dan DeepSeek-V4-Flash. Keduanya memanfaatkan a Mixture of Experts (MoE) architecture dan menawarkan jendela konteks 1 juta token yang sangat besar secara default.

Yang menjadikan DeepSeek V4 rilis penting bagi industri adalah kombinasi performa yang nyaris setara frontier dengan harga yang sangat kompetitif. Model V4-Pro mengusung total 1,6 triliun parameter (49 miliar aktif), menjadikannya model berbobot terbuka terbesar yang tersedia saat ini. 

Meski berukuran besar, DeepSeek mengklaim model ini hanya tertinggal 3 hingga 6 bulan dari model tertutup terdepan sekaligus berbiaya jauh lebih rendah dibanding OpenAI dan Anthropic.

Fitur Utama DeepSeek V4

Mari lihat beberapa fitur menonjol dari rilis terbaru ini: 

Inovasi struktural dan efisiensi konteks 1M

Fitur paling menonjol dari DeepSeek V4 adalah kemampuannya yang sangat efisien dalam menangani konteks panjang. 

Menurut catatan teknis, seri V4 menggunakan Arsitektur Atensi Hibrida yang menggabungkan Compressed Sparse Attention (CSA) dan Heavily Compressed Attention (HCA). 

Berkat perubahan struktural ini, konteks 1 juta token kini menjadi standar di semua layanan DeepSeek. 

DeepSeek mengklaim bahwa, dalam skenario konteks 1M token, DeepSeek-V4-Pro hanya membutuhkan 27% FLOPs inferensi per token tunggal dan hanya 10% cache KV dibanding pendahulunya, DeepSeek-V3.2.

Tiga mode upaya penalaran

Untuk memberi pengguna kontrol rinci atas latensi dan performa, DeepSeek V4 menyertakan tiga mode penalaran:

  • Non-think: Respons cepat dan intuitif untuk tugas harian rutin dan keputusan berisiko rendah.
  • Think High: Analisis logis yang sadar, lebih lambat namun sangat akurat untuk pemecahan masalah kompleks.
  • Think Max: Mendorong kemampuan penalaran hingga batas maksimal untuk menjelajahi batas kapabilitas model.

Kapabilitas agentic yang ditingkatkan

DeepSeek V4 tampaknya dioptimalkan untuk coding berbasis agen. Catatan rilis menyatakan bahwa model ini terintegrasi mulus dengan agen AI terkemuka seperti Claude Code, OpenClaw, dan OpenCode, dan sudah menggerakkan infrastruktur coding agentic internal DeepSeek.

Optimasi pelatihan tingkat lanjut

Di balik layar, DeepSeek memperkenalkan Manifold-Constrained Hyper-Connections (mHC) untuk memperkuat koneksi residual dan menstabilkan propagasi sinyal. Mereka juga beralih ke Muon Optimizer untuk konvergensi lebih cepat dan stabilitas pelatihan yang lebih tinggi, melakukan pra-pelatihan model pada lebih dari 32 triliun token beragam.

Benchmark DeepSeek V4

Menurut hasil internal DeepSeek, DeepSeek V4 menunjukkan performa yang mengesankan, terutama saat didorong ke batas penalaran maksimalnya (DeepSeek-V4-Pro-Max). 

Berdasarkan catatan rilis resmi, berikut posisi model ini dibanding industri yang lebih luas:

Pengetahuan dan penalaran

Pro-Max dengan mudah mengungguli model open-source lain dan mengalahkan model frontier yang lebih lama seperti GPT-5.2. Model ini meraih 87,5% pada MMLU-Pro dan 90,1% pada GPQA Diamond, serta 92,6% pada GSM8K untuk matematika. Meski masih sedikit tertinggal dari yang paling mutakhir (GPT-5.4 dan Gemini-3.1-Pro) beberapa bulan, kesenjangan pengetahuan telah berkurang signifikan.

Tugas agentic

Pro-Max setara dengan model open terdepan, meraih 67,9% pada Terminal Bench 2.0 dan 55,4% pada SWE-Bench Pro. Meski sedikit kalah dari model tertutup terbaru di papan peringkat publik, pengujian internal menunjukkan model ini mengungguli Claude Sonnet 4.5 dan mendekati level Opus 4.5.

Konteks panjang

Jendela 1 juta token bukan sekadar gimmick. Pro-Max memberikan hasil yang sangat kuat di sini, meraih skor 83,5% pada MRCR 1M (MMR) untuk pengambilan informasi "jarum di tumpukan jerami". Ini bahkan melampaui Gemini-3.1-Pro pada benchmark konteks panjang akademik.

DeepSeek V4 Pro vs Flash

Karena ukurannya yang lebih kecil, Flash-Max secara alami mencetak nilai lebih rendah pada pengetahuan murni dan kesulitan menangani alur kerja agen yang paling kompleks. Namun, jika Anda memberinya "anggaran berpikir" yang lebih besar, model ini mencapai skor penalaran yang sebanding dengan model frontier yang lebih lama, menjadikannya opsi yang sangat hemat biaya untuk beban kerja berat.

Benchmark DeepSeek v4

Sumber gambar

Bagaimana Cara Mengakses DeepSeek V4?

Ada beberapa cara untuk mengakses DeepSeek V4 saat ini:

  • Antarmuka web: Anda dapat mencoba kedua model langsung di chat.deepseek.com melalui Mode Instan atau Mode Ahli.
  • Akses API: API sudah tersedia hari ini. Pengembang hanya perlu memperbarui parameter model ke deepseek-v4-pro atau deepseek-v4-flash. API ini mempertahankan kompatibilitas dengan format OpenAI ChatCompletions dan Anthropic API. (Catatan: model warisan deepseek-chat dan deepseek-reasoner akan dihentikan pada 24 Juli 2026).
  • Bobot terbuka: Kedua model dirilis di bawah Lisensi MIT. Anda dapat mengunduh bobotnya langsung dari Hugging Face atau ModelScope. Pro berukuran unduhan 865GB, sementara Flash jauh lebih ringan, 160GB.

DeepSeek V4 vs Kompetitor

Dalam sepekan terakhir, kita melihat rilis GPT-5.5 dari OpenAI dan Claude Opus 4.7 dari Anthropic. Walau model-model tersebut unggul, khususnya dalam penalaran konteks panjang dan coding berbasis agen, DeepSeek V4 sangat kompetitif dari sisi nilai dan akses terbuka.

Berikut perbandingan DeepSeek-V4-Pro dengan model andalan terbaru dari OpenAI dan Anthropic:

Fitur/Benchmark

DeepSeek V4 Pro

GPT-5.5

Claude Opus 4.7

Harga API (Input / Output per 1M)

$1,74 / $3,48

$5,00 / $30,00

$5,00 / $25,00

Jendela Konteks

1M token

~1M token

~1M token

SWE-bench Pro (Coding)

55,4%

58,6%

64,3%

Terminal-Bench 2.0 (Agentic)

67,9%

82,7%

69,4%

Bobot Terbuka

Ya (Lisensi MIT)

Tidak (Tertutup)

Tidak (Tertutup)

Catatan: Untuk pengguna yang memprioritaskan anggaran, DeepSeek V4 Flash hanya berharga $0,14 per 1M token input dan $0,28 per 1M token output, bahkan lebih murah daripada model kecil seperti GPT-5.4 Nano.

Seberapa Baik DeepSeek V4?

DeepSeek V4 adalah rilis yang sangat disruptif. Menurut benchmark yang dilaporkan sendiri oleh DeepSeek, model Pro hanya tertinggal 3 hingga 6 bulan dari model frontier terdepan (seperti GPT-5.4 dan Gemini-3.1-Pro) dalam lintasan pengembangan.

Namun, melihat konteks industri yang lebih luas, performa mentah hanyalah setengah dari cerita. Judul besar dari DeepSeek V4 terletak pada efisiensi konteks yang sangat tinggi dan harga yang sangat rendah. 

Memberikan kapabilitas yang nyaris setara frontier, termasuk jendela konteks 1M token, dengan sebagian kecil biaya GPT-5.5 atau Opus 4.7 menjadikan DeepSeek V4 pilihan paling menarik untuk tugas perusahaan berskala besar, peneliti open-source, dan pengembang dengan anggaran ketat.

Use Case DeepSeek V4

Dengan keunggulan-keunggulan tersebut, berikut beberapa area di mana saya melihat V4 menonjol: 

  • Rekayasa perangkat lunak otomatis: Benchmark agentic yang kuat dan integrasi dengan alat seperti OpenClaw menjadikan V4-Pro kandidat solid untuk refaktorisasi dan debugging basis kode secara otonom.
  • Pemrosesan dokumen volume tinggi: Biaya yang lebih rendah dalam komputasi konteks 1M token berarti analis keuangan dan tim legal dapat memproses tumpukan PDF, 10-K, dan kontrak dengan biaya sangat kecil.
  • Deploy lokal dan riset: Karena menggunakan lisensi MIT, peneliti dapat menjalankan kuantisasi (terutama pada model Flash 160GB) untuk bereksperimen dengan AI setara frontier secara lokal di perangkat konsumen kelas atas.

Penutup

DeepSeek V4 adalah lompatan besar bagi komunitas AI open-source. Meski GPT-5.5 dan Claude Opus 4.7 mungkin masih unggul pada benchmark coding dan penalaran yang paling sulit, DeepSeek V4 mendemokratisasi akses ke jendela konteks 1 juta token dan alur kerja agentic yang kompleks.

Jika Anda ingin tetap terdepan dan mempelajari cara menerapkan model-model mutakhir ini dalam alur kerja Anda sendiri, saya sarankan mengecek beberapa sumber daya kami. Khususnya, kursus Understanding Prompt Engineering untuk menyempurnakan cara Anda berkomunikasi dengan model seperti DeepSeek, atau AI Agent Fundamentals skill track, jika Anda ingin mulai membangun sistem agentic yang dapat diskalakan.

DeepSeek V4 FAQs

Apakah DeepSeek V4 bersifat open-source?

Ya. Baik DeepSeek-V4-Pro maupun DeepSeek-V4-Flash adalah model berbobot terbuka yang dirilis di bawah Lisensi MIT yang sangat permisif. Ini memungkinkan pengembang dan peneliti untuk menggunakan, memodifikasi, dan menerapkan model secara komersial.

Berapa jendela konteks untuk DeepSeek V4?

Baik model Pro maupun Flash memiliki jendela konteks 1 juta token secara default. Berkat Arsitektur Atensi Hibrida yang baru, DeepSeek V4 menangani konteks besar ini dengan sebagian kecil biaya komputasi dan memori dibanding model lama.

Berapa biaya API DeepSeek V4?

Harganya sangat kompetitif. DeepSeek-V4-Flash hanya berharga $0,14 per 1M token input dan $0,28 per 1M token output. DeepSeek-V4-Pro berharga $1,74 per 1M token input dan $3,48 per 1M token output.

Seberapa besar model DeepSeek V4?

DeepSeek menggunakan arsitektur Mixture of Experts (MoE). Model Pro memiliki total 1,6 triliun parameter (49 miliar aktif) dan membutuhkan unduhan 865GB. Model Flash memiliki 284 miliar parameter (13 miliar aktif) dan membutuhkan unduhan 160GB.

Apakah DeepSeek V4 mengalahkan GPT-5.5 dan Claude Opus 4.7?

Dalam kapabilitas murni, tidak. Data yang dilaporkan DeepSeek menunjukkan model V4-Pro tertinggal sekitar 3 hingga 6 bulan dari model tertutup terdepan pada benchmark coding dan penalaran paling sulit. Namun, model ini menghadirkan performa nyaris frontier dengan biaya API sekitar sepertiga, sehingga sangat disruptif.


Matt Crabtree's photo
Author
Matt Crabtree
LinkedIn

Editor senior di bidang AI dan edtech. Berkomitmen mengeksplorasi tren data dan AI.  

Topik

Kursus Teratas di DataCamp

Program

Dasar-Dasar Kecerdasan Buatan

10 Hr
Pelajari dasar-dasar kecerdasan buatan (AI), pelajari cara memanfaatkan AI secara efektif untuk pekerjaan, dan jelajahi model seperti ChatGPT untuk memahami lanskap AI yang dinamis.
Lihat DetailRight Arrow
Mulai Kursus
Lihat Lebih BanyakRight Arrow