Lewati ke konten utama

DeepSeek V4 Flash vs GPT-5.4 Mini dan Nano: Mana LLM Ringan yang Terbaik?

Perbandingan langsung DeepSeek V4 Flash, GPT-5.4 Mini, dan GPT-5.4 Nano pada tolok ukur, harga, dan use case praktis.
Diperbarui 4 Mei 2026  · 12 mnt baca

Jika Anda membangun pipeline API ber-volume tinggi atau sistem multi-agen di mana model yang lebih kecil menangani pekerjaan rutin, kemungkinan Anda sedang mempertimbangkan tiga opsi ini: DeepSeek V4 Flash, GPT-5.4 Mini, dan GPT-5.4 Nano. Ketiganya diposisikan sebagai tier cepat dan murah dalam keluarga masing-masing. Namun, perbedaannya lebih tajam daripada yang disiratkan pemasaran.

DeepSeek merilis V4 Flash bersamaan dengan V4 Pro pada 24 April 2026, dengan harga agresif dan jendela konteks 1 juta token sebagai standar default. OpenAI merilis GPT-5.4 Mini dan Nano sekitar satu bulan lebih awal, menargetkan subagen pemrograman dan beban kerja klasifikasi ber-volume tinggi. Ini bukan produk yang sama untuk pembeli yang sama.

Dalam artikel ini, saya akan membandingkan ketiga model pada kinerja pemrograman, penalaran, penanganan konteks, dan harga, agar Anda dapat memutuskan mana yang cocok untuk alur kerja Anda. Untuk konteks yang lebih luas, lihat panduan kami tentang DeepSeek V4 dan GPT-5.4 Mini dan Nano.

Apa Itu DeepSeek V4 Flash?

DeepSeek V4 Flash adalah varian yang lebih kecil dan cepat dalam keluarga DeepSeek V4, dirilis pada 24 April 2026. Model ini menggunakan arsitektur Mixture of Experts (MoE) dengan total 284 miliar parameter dan 13 miliar parameter aktif per forward pass. Sebagai perbandingan, V4 Pro menjalankan total 1,6 triliun parameter dengan 49 miliar aktif, sehingga Flash benar-benar model yang berbeda, bukan sekadar versi Pro yang dikuantisasi.

Fitur utama seluruh keluarga V4 adalah jendela konteks 1 juta token sebagai standar default, didukung mekanisme attention baru yang menggabungkan kompresi token-wise dan DeepSeek Sparse Attention (DSA). Flash mewarisi pendekatan arsitektur yang sama pada skala lebih kecil. Kedua model V4 berbobot terbuka (open-weight) di bawah Lisensi MIT dan mendukung mode Thinking dan Non-Thinking ganda.

Untuk melihat cara membangun aplikasi menggunakan kedua model dalam keluarga baru ini, lihat Tutorial API DeepSeek V4 kami. Anda juga dapat membaca bagaimana versi Pro dibandingkan dengan LLM mutakhir lainnya dalam artikel perbandingan kami DeepSeek V4 vs GPT-5.5 dan Claude Opus 4.7 vs DeepSeek V4.

Apa Itu GPT-5.4 Mini dan Nano?

GPT-5.4 Mini dan Nano adalah tier model kecil OpenAI dalam keluarga GPT-5.4, dirilis pada 17 Maret 2026. Mini adalah yang lebih besar dari keduanya, dirancang untuk asisten pemrograman, alur kerja subagen, dan tugas multimodal yang menuntut latensi rendah. Nano adalah model terkecil dan termurah dalam keluarga ini, ditujukan untuk klasifikasi, ekstraksi data, pemeringkatan, dan subagen pemrograman sederhana. OpenAI menyebut keduanya berjalan lebih dari 2x lebih cepat dibanding GPT-5 Mini.

Kedua model mendukung jendela konteks 400K, input teks dan gambar, penggunaan tool, dan function calling. Mini tersedia di API, Codex, dan ChatGPT, sementara Nano hanya tersedia di API. Keduanya bukan open-weight. OpenAI memperkenalkan level upaya penalaran baru xhigh untuk keduanya, yang tidak tersedia pada GPT-5 Mini yang lebih lama, sehingga membandingkan benchmark langsung dengan generasi sebelumnya agak rumit.

DeepSeek V4 Flash vs GPT-5.4 Mini vs GPT-5.4 Nano: Perbandingan Langsung

Berikut rujukan cepat pada dimensi yang paling penting untuk pemilihan model ringan.

Fitur DeepSeek V4 Flash GPT-5.4 Mini GPT-5.4 Nano
Parameter (total / aktif) 284B / 13B Tidak dipublikasikan Tidak dipublikasikan
Jendela konteks 1M token (default) 400K token 400K token
Bobot terbuka Ya (Lisensi MIT) Tidak Tidak
SWE-bench Pro (pemrograman) 52,6% 54,4% 52,4%
Terminal-Bench 2.0 56,9% 60,0% 46,3%
GPQA Diamond (penalaran) 88,1% 88,0% 82,8%
Humanity's Last Exam (dengan tools) 45,1% 41,5% 37,7%
MCP Atlas (penggunaan tool) 69,0% 57,7% 56,1%
Harga input API (per 1M token) $0,14 $0,75 $0,20
Harga output API (per 1M token) $0,28 $4,50 $1,25
Mode Thinking / penalaran Non-Think, Think High, Think Max none, low, medium, high, xhigh none, low, medium, high, xhigh
Ketersediaan API, web, bobot terbuka API, Codex, ChatGPT Hanya API

Alur kerja pemrograman dan agen

Pemrograman adalah use case utama untuk ketiga model, dan tolok ukurnya cukup berdekatan sehingga membuat pilihan menjadi menarik. Pada SWE-bench Pro, GPT-5.4 Mini memimpin di 54,4%, dengan Flash 52,6% dan Nano 52,4%. Itu adalah klaster ketat di puncak, dengan selisih kurang dari 2 poin pada pemrograman tingkat repositori.

Terminal-Bench 2.0 adalah tempat terjadi pemisahan. Mini mencetak 60,0%, Flash 56,9%, dan Nano turun ke 46,3%. Seperti yang kami catat dalam ulasan GPT-5.4 Mini dan Nano, skor Terminal-Bench Mini menempatkannya kira-kira di kisaran yang sama dengan GPT-5.2 (64,7%), yang belum lama ini merupakan model andalan. Flash kompetitif tetapi tertinggal sekitar 3 poin dari Mini, sementara Nano tertinggal signifikan untuk alur kerja yang berat di terminal.

Dalam pemrograman, Mini unggul tipis pada benchmark, tetapi Flash cukup dekat sehingga keputusan kemungkinan akan bergantung pada ekosistem dan harga, bukan performa mentah.

Tugas penalaran dan pengetahuan

Pada GPQA Diamond, tolok ukur penalaran sains tingkat pascasarjana, Flash dan Mini praktis seri: Flash 88,1%, Mini 88,0%. Nano tertinggal di 82,8%, yang masih peningkatan atas GPT-5 Mini 81,6% tetapi jelas di bawah dua lainnya. Jika kualitas penalaran penting untuk pipeline Anda, Flash dan Mini dapat dipertukarkan di sini, sementara Nano satu tingkat di bawah.

Humanity's Last Exam (dengan tools) menunjukkan cerita berbeda. Flash memimpin di 45,1%, di depan Mini 41,5% dan Nano 37,7%. Ini salah satu dari sedikit benchmark di mana Flash jelas mengungguli Mini, dan menunjukkan bahwa penalaran Flash dalam skenario yang diperkuat tool sangat kuat. Sebagai referensi, V4 Pro mencetak 48,2% pada tolok ukur yang sama, sehingga Flash menangkap porsi bermakna dari kemampuan penalaran Pro dengan biaya sebagian kecil.

Intinya secara praktis: untuk tugas yang padat pengetahuan dan penalaran kompleks, Flash dan Mini sama-sama pilihan kuat. Flash sedikit unggul saat penggunaan tool menjadi bagian dari loop penalaran, sementara Mini dan Nano diuntungkan dari ekosistem terkelola OpenAI. Nano memadai untuk tugas penalaran yang lebih sederhana namun tertinggal pada tolok ukur yang menuntut.

Jendela konteks dan pekerjaan konteks panjang

Di sini DeepSeek V4 Flash memiliki keunggulan struktural. Jendela konteks 1 juta token adalah default untuk semua model V4, termasuk Flash. GPT-5.4 Mini dan Nano sama-sama batas di 400K token. Untuk tugas yang melibatkan basis kode besar, dokumen panjang, atau riwayat percakapan yang panjang, jendela konteks Flash 2,5x lebih besar.

Flash tidak hanya menawarkan jendela yang lebih besar; ia juga melakukan pengambilan (retrieval) dengan baik pada skala itu. Flash mencetak 78,7% pada MRCR 1M, tolok ukur retrieval jarum-di-tumpukan-jerami pada 1 juta token. V4 Pro mencetak 83,5% pada tolok ukur yang sama, yang panduan DeepSeek V4 kami catat melampaui Gemini 3.1-Pro pada evaluasi konteks panjang akademik. Flash tertinggal sekitar 5 poin dari Pro namun tetap memberikan retrieval kuat pada panjang konteks penuh 1M.

Kinerja konteks panjang GPT-5.4 Mini pada OpenAI MRCR v2 (8-needle, 64K-128K) adalah 47,7%, turun ke 33,6% pada 128K-256K. Angka-angka ini jauh lebih rendah daripada GPT-5.4 sebesar 86,0% dan 79,3% pada rentang yang sama, dan tolok ukurnya tidak menjangkau 1M token sama sekali. Untuk pekerjaan konteks panjang secara khusus, Flash adalah pemenang jelas: jendela lebih besar dengan kualitas retrieval yang lebih baik daripada yang dapat ditawarkan Mini pada rentang lebih pendek.

Penggunaan tool dan interaksi agen

MCP Atlas, yang mengukur seberapa baik model menangani pemanggilan tool dan penggunaan tool multi-langkah, adalah area lain di mana Flash unggul jelas. Flash mencetak 69,0%, dibanding Mini 57,7% dan Nano 56,1%. Itu keunggulan 11+ poin atas kedua model OpenAI, sejalan dengan penekanan DeepSeek pada alur kerja agen di seluruh keluarga V4.

Kesenjangan ini penting untuk beban kerja nyata. Jika Anda membangun agen yang merangkai beberapa panggilan API atau mengorkestrasi tool eksternal melalui protokol bergaya MCP, keandalan penggunaan tool Flash adalah keunggulan bermakna dibanding Mini dan Nano pada tier model ini.

Untuk penggunaan komputer secara khusus (interaksi GUI otonom), gambarnya berbalik. GPT-5.4 Mini mencetak 72,1% pada OSWorld-Verified, mendekati GPT-5.4 penuh yang 75,0%. Nano 39,0%, dan Flash tidak memublikasikan hasil OSWorld. Catatan rilis V4 berfokus pada pemrograman agen, bukan otomasi GUI, jadi jika penggunaan komputer otonom adalah bagian dari alur kerja Anda, Mini adalah satu-satunya opsi yang layak di antara ketiganya.

Harga

DeepSeek V4 Flash dihargai $0,14 per satu juta token input dan $0,28 per satu juta token output. Itu mengalahkan setiap model lain dalam perbandingan ini dengan margin lebar.

Model Input (per 1M token) Output (per 1M token)
DeepSeek V4 Flash $0,14 $0,28
GPT-5.4 Nano $0,20 $1,25
GPT-5.4 Mini $0,75 $4,50

Harga token output adalah tempat kesenjangan benar-benar melebar. Harga output Flash $0,28 adalah 4,5x lebih murah daripada Nano $1,25 dan 16x lebih murah daripada Mini $4,50. Untuk beban kerja yang menghasilkan banyak token output, seperti pembuatan kode atau peringkasan panjang, keunggulan biaya Flash dengan cepat berlipat ganda.

Secara konkret: menjalankan 10 juta token output berbiaya $2,80 dengan Flash, $12,50 dengan Nano, dan $45,00 dengan Mini. Jika Anda menjalankan pipeline ber-volume tinggi dan kesenjangan benchmark antara Flash dan Mini dapat diterima untuk tugas Anda, harga Flash sulit ditampik. Konsekuensinya, Flash adalah open-weight dan bisa di-host sendiri, yang menambah overhead infrastruktur jika Anda menempuh jalur itu, sementara Mini dan Nano sepenuhnya dikelola oleh OpenAI.

Ketersediaan, lisensi, dan ekosistem

DeepSeek V4 Flash adalah open-weight di bawah Lisensi MIT. Anda dapat mengunduh bobot dari Hugging Face, melakukan self-host, dan memodifikasi model. API tersedia hari ini di chat.deepseek.com dan melalui DeepSeek API, yang mendukung format OpenAI ChatCompletions dan Anthropic API. ID model deepseek-chat dan deepseek-reasoner yang lama akan dipensiunkan pada 24 Juli 2026.

GPT-5.4 Mini tersedia di API, Codex, dan ChatGPT. Di Codex, model ini hanya menggunakan 30% kuota GPT-5.4, menjadikannya pilihan default untuk tugas pemrograman yang lebih sederhana di lingkungan tersebut. Pengguna ChatGPT Free dan Go dapat mengakses Mini melalui fitur Thinking. Nano hanya tersedia melalui API dan tidak tersedia di ChatGPT atau Codex.

Bagi tim yang sudah tertanam di ekosistem OpenAI, Mini terintegrasi mulus ke alur kerja Codex dan pola subagen yang ada. Bagi tim yang ingin self-host, mengaudit bobot, atau menghindari penguncian vendor, Flash adalah satu-satunya opsi di antara ketiganya yang memungkinkannya.

Kapan Memilih DeepSeek V4 Flash vs GPT-5.4 Mini vs GPT-5.4 Nano

Pilihan yang tepat sangat bergantung pada tipe beban kerja, anggaran, dan apakah bobot terbuka penting bagi tim Anda. Berikut rujukan cepat sebelum rincian lengkap.

Use case Rekomendasi Alasan
Panggilan API ber-volume tinggi dengan output panjang DeepSeek V4 Flash Harga output $0,28 adalah 4,5-16x lebih murah daripada alternatif
Memproses dokumen lebih panjang dari 400K token DeepSeek V4 Flash Jendela konteks 1M adalah default; Mini dan Nano batas di 400K
Self-hosting atau deployment on-premise DeepSeek V4 Flash Bobot terbuka berlisensi MIT; Mini dan Nano tertutup
Agen yang banyak menggunakan tool (MCP, function calling) DeepSeek V4 Flash 69,0% pada MCP Atlas, unggul 11+ poin dari Mini dan Nano
Subagen pemrograman dalam pipeline Codex GPT-5.4 Mini Integrasi Codex native dengan 30% kuota GPT-5.4; 54,4% SWE-bench Pro
Penggunaan komputer otonom dan interaksi GUI GPT-5.4 Mini 72,1% pada OSWorld-Verified, mendekati 75,0% milik GPT-5.4
Tugas agen yang berat di terminal GPT-5.4 Mini 60,0% pada Terminal-Bench 2.0, sebanding dengan GPT-5.2 andalan sebelumnya
Klasifikasi, pemeringkatan, dan ekstraksi data skala besar GPT-5.4 Nano Harga input $0,20 dengan 82,8% GPQA Diamond; dirancang untuk beban kerja ini
Prototyping dan eksperimen dengan anggaran terbatas DeepSeek V4 Flash atau GPT-5.4 Nano Keduanya opsi termurah dalam keluarga masing-masing

Pilih DeepSeek V4 Flash jika...

  • Beban kerja Anda menghasilkan volume besar token output, dan biaya adalah kendala utama. Dengan $0,28 per satu juta token output, Flash adalah opsi termurah di sini dengan margin signifikan.
  • Anda memerlukan jendela konteks lebih besar dari 400K token. Default 1M milik Flash menangani basis kode penuh, kontrak panjang, dan riwayat agen yang panjang yang tidak bisa dimuat Mini dan Nano dalam satu panggilan.
  • Bobot terbuka penting bagi tim Anda. Flash berlisensi MIT dan dapat di-host sendiri, relevan untuk kepatuhan, deployment on-premise, atau tim yang ingin fine-tune.
  • Anda membangun alur kerja pemrograman agen dan menginginkan integrasi dengan Claude Code atau OpenCode. DeepSeek secara eksplisit mencantumkan integrasi ini dalam catatan rilis V4.
  • Anda ingin akses ke tiga mode upaya penalaran (Non-Think, Think High, Think Max) untuk menyetel trade-off latensi-kualitas per permintaan.

Pilih GPT-5.4 Mini jika...

  • Anda membangun di dalam ekosistem OpenAI, khususnya Codex. Integrasi native Mini dengan Codex dan penggunaan kuota 30% menjadikannya model subagen yang alami untuk lingkungan tersebut.
  • Aplikasi Anda melibatkan penggunaan komputer atau otomasi GUI. Skor Mini 72,1% pada OSWorld-Verified adalah yang terkuat di antara ketiga model pada tolok ukur tersebut.
  • Anda menginginkan model tertutup yang sepenuhnya dikelola tanpa overhead infrastruktur. Mini tersedia di ChatGPT untuk pengguna Free dan Go, yang juga membuatnya mudah diakses untuk prototyping tanpa penyiapan API.

Pilih GPT-5.4 Nano jika...

  • Beban kerja Anda adalah klasifikasi, ekstraksi data, atau pemeringkatan ber-volume tinggi. OpenAI secara eksplisit merancang Nano untuk tugas-tugas ini, dan harga input $0,20 membuatnya kompetitif dengan Flash untuk pekerjaan yang berat di input.
  • Anda menginginkan model OpenAI terkelola dengan harga mendekati Flash. Harga input Nano ($0,20) dekat dengan Flash ($0,14), dan Anda mendapatkan ekosistem OpenAI tanpa self-hosting.
  • Anda mendelegasikan sub-tugas sederhana dari model yang lebih besar dalam sistem multi-agen. Nano dirancang sebagai lapisan "pekerjaan massal" dalam hierarki di mana model Thinking yang lebih besar menangani perencanaan.

Pemikiran Akhir

Flash dan Mini saling mengungguli pada berbagai benchmark (Flash unggul pada penggunaan tool dan penalaran-dengan-tool, Mini unggul pada pemrograman dan penggunaan komputer), Flash jauh lebih murah, dan Nano menempati ceruk sempit namun nyata untuk klasifikasi ber-volume tinggi dengan biaya rendah. Tidak ada yang menjadi jawaban universal.

Yang paling menarik dari perbandingan ini adalah asimetri harga pada token output. Harga output Flash $0,28 dibanding $4,50 milik Mini bukanlah perbedaan kecil. Untuk beban kerja yang menghasilkan output besar, perhitungan biaya bergeser drastis menguntungkan Flash, bahkan ketika Mini memiliki keunggulan benchmark tipis. Pertanyaannya adalah apakah keunggulan itu penting untuk tugas spesifik Anda.

Ada juga pertanyaan timing yang patut dicatat. DeepSeek menyatakan secara terbuka bahwa mereka menganggap V4 Pro tertinggal sekitar 3–6 bulan dari garis depan model andalan. Namun kesenjangan menyempit di tier ringan: Flash menyamai atau mengungguli Mini pada tolok ukur penalaran dan penggunaan tool meski harganya hanya sebagian kecil. Apa pun kelambatan yang ada di level andalan, itu belum diterjemahkan menjadi kerugian jelas di tier model hemat, setidaknya untuk saat ini.

Rekomendasi praktis saya: jika Anda berada di ekosistem OpenAI dan membangun agen pemrograman atau alur kerja penggunaan komputer, Mini adalah default yang tepat. Jika Anda sensitif terhadap biaya, membutuhkan konteks panjang, agen yang banyak menggunakan tool, atau bobot terbuka, Flash adalah pilihan yang lebih kuat. Nano adalah spesialis, bukan pilihan serbaguna.

Jika Anda ingin membangun jenis sistem multi-agen di mana model ringan seperti ini paling berguna, saya merekomendasikan untuk melihat skill track AI Agent Fundamentals di DataCamp. Track ini membahas pola, kerangka, dan keputusan desain yang membuat arsitektur subagen benar-benar bekerja di produksi.

DeepSeek V4 Flash vs GPT-5.4 Mini dan Nano: FAQ

Apakah DeepSeek V4 Flash benar-benar open-source?

Flash adalah open-weight di bawah Lisensi MIT, artinya Anda dapat mengunduh bobot dari Hugging Face, melakukan self-host, fine-tune, dan memodifikasi model. "Open-weight" tidak sama dengan sepenuhnya open-source: data pelatihan dan infrastrukturnya tidak dipublikasikan, tetapi Lisensi MIT adalah salah satu yang paling permisif, memungkinkan penggunaan komersial tanpa batasan.

Bisakah saya beralih antara mode thinking dan non-thinking pada ketiga model?

DeepSeek V4 Flash menawarkan tiga mode yang dapat dipilih: Non-Think, Think High, dan Think Max, yang memungkinkan Anda menyetel trade-off latensi-kualitas per permintaan. GPT-5.4 Mini dan Nano sama-sama mendukung rentang reasoning_effort penuh (none, low, medium, high, xhigh) melalui parameter API OpenAI. Level xhigh adalah hal baru pada generasi 5.4 dan tidak tersedia pada GPT-5 Mini yang lebih lama.

Model mana yang termurah untuk pipeline yang menghasilkan banyak teks?

DeepSeek V4 Flash, dengan selisih lebar. Harga outputnya $0,28 per satu juta token, 4,5x lebih murah daripada GPT-5.4 Nano ($1,25) dan 16x lebih murah daripada GPT-5.4 Mini ($4,50). Untuk beban kerja yang menghasilkan 10 juta token output, biayanya $2,80 dengan Flash versus $45,00 dengan Mini. Jika pipeline Anda berat di output (pembuatan kode, peringkasan, penyusunan), keunggulan biaya Flash cepat berlipat.

Model mana yang menangani dokumen atau basis kode terpanjang?

Flash adalah satu-satunya opsi yang layak jika input Anda melebihi 400K token. Model ini menawarkan jendela konteks 1 juta token secara default, 2,5x lebih besar daripada batas 400K pada GPT-5.4 Mini dan Nano. Flash juga melakukan retrieval dengan baik pada skala itu, mencetak 78,7% pada tolok ukur jarum-di-tumpukan-jerami MRCR 1M.

Saya sudah menggunakan OpenAI API. Haruskah saya default ke Mini saja?

Mini adalah default alami jika Anda berada di dalam ekosistem OpenAI, khususnya Codex, di mana model ini terintegrasi secara native dengan penggunaan 30% dari kuota GPT-5.4. Model ini juga memimpin pada tolok ukur pemrograman (54,4% pada SWE-bench Pro, 60,0% pada Terminal-Bench 2.0) dan menjadi satu-satunya dari ketiganya dengan skor penggunaan komputer yang kuat (72,1% pada OSWorld-Verified). Meski begitu, Claude Code, OpenCode, dan OpenClaw semuanya agnostik terhadap model, jadi penguncian vendor tidak sebesar yang terlihat.


Tom Farnschläder's photo
Author
Tom Farnschläder
LinkedIn

Tom adalah seorang ilmuwan data dan pendidik teknis. Ia menulis dan mengelola tutorial serta artikel blog ilmu data DataCamp. Sebelumnya, Tom bekerja di bidang ilmu data di Deutsche Telekom.

Topik

Kursus AI Terbaik

Program

Dasar-Dasar Agen Kecerdasan Buatan

6 Hr
Temukan bagaimana agen kecerdasan buatan (AI) dapat mengubah cara Anda bekerja dan memberikan nilai tambah bagi organisasi Anda!
Lihat DetailRight Arrow
Mulai Kursus
Lihat Lebih BanyakRight Arrow
Terkait

blogs

12 Alternatif ChatGPT Terbaik yang Bisa Anda Coba pada 2026

Artikel ini menyajikan daftar alternatif ChatGPT yang akan meningkatkan produktivitas Anda.
Javier Canales Luna's photo

Javier Canales Luna

12 mnt

blogs

40 Pertanyaan Wawancara DBMS Teratas di 2026

Kuasai pertanyaan wawancara basis data, dari konsep SQL dasar hingga skenario desain sistem tingkat lanjut. Panduan mendalam ini mencakup semua yang Anda perlukan untuk sukses di wawancara DBMS dan meraih peran berikutnya.
Dario Radečić's photo

Dario Radečić

15 mnt

blogs

Spaghetti Plot dan Jalur Badai

Temukan alasan mengapa Anda sebaiknya (tidak) menggunakan spaghetti plot untuk menyampaikan ketidakpastian jalur prediksi badai serta dampaknya terhadap interpretasi.
Hugo Bowne-Anderson's photo

Hugo Bowne-Anderson

13 mnt

blogs

Tutorial Korelasi di R

Dapatkan pengenalan dasar-dasar korelasi di R: pelajari lebih lanjut tentang koefisien korelasi, matriks korelasi, plotting korelasi, dan sebagainya.
David Woods's photo

David Woods

13 mnt

Lihat Lebih BanyakLihat Lebih Banyak