DeepSeek hari ini merilis versi pratinjau dari model AI V4 yang telah lama dinanti, sekali lagi memperkecil jarak performa dengan model AI unggulan dari perusahaan-perusahaan teknologi raksasa dunia.
Perusahaan rintisan asal China ini meluncurkan dua versi *open-source*: satu model V4 Pro berperforma tinggi, dan satu model V4 Flash yang lebih kecil dan hemat biaya. DeepSeek memposisikan kedua model ini sebagai penantang sistem kelas atas, dengan klaim keunggulan dalam kemampuan pengkodean (*coding*), penalaran (*reasoning*) yang lebih baik, serta kemampuan agen (*agentic capabilities*) yang lebih canggih.
Salah satu peningkatan yang paling mencolok adalah lompatan ke [0]jendela konteks (*context window*) 1 juta token, yang memungkinkan model untuk memproses keseluruhan basis kode atau dokumen yang sangat panjang dalam satu *single prompt*.
Namun yang benar-benar membuat model ini menonjol adalah fokusnya pada efisiensi.
Model V4 menggunakan arsitektur *mixture-of-experts* (MoE), sebuah desain yang hanya mengaktifkan sebagian kecil dari total parameter model dalam suatu waktu. Meskipun sistem ini mungkin memiliki triliunan parameter secara keseluruhan, hanya sebagian kecil yang digunakan per tugas, sehingga biaya inferensi tetap rendah.
Model-model baru ini hadir lebih dari setahun setelah DeepSeek pertama kali menjadi sorotan dengan model penalaran R1-nya. Sistem tersebut mampu menyaingi model canggih dari perusahaan seperti OpenAI dan Google, namun kabarnya dibangun dengan biaya yang jauh lebih rendah dan menggunakan lebih sedikit chip AI untuk pelatihan. Berita ini bahkan memicu aksi jual besar-besaran senilai triliunan dolar di Wall Street, di mana Nvidia kehilangan hampir 600 juta dolar dalam sehari.
Dalam makalah teknis-nya, perusahaan menyebut model terbarunya kompetitif, sembari mengakui adanya sedikit kesenjangan performa.
“Melalui perluasan token penalaran, DeepSeek-V4-Pro-Max menunjukkan performa superior dibandingkan GPT-5.2…nyatanya dan Gemini-3.0-Pro pada tolok ukur penalaran standar,” kata perusahaan. “Meskipun demikian, performanya sedikit di bawah GPT-5.4 dan Gemini-3.1-Pro, mengindikasikan lintasan pengembangan yang tertinggal sekitar 3 hingga 6 bulan di belakang model-model *frontier* tercanggih.”
Meski begitu, bagi banyak pengguna, penghematan biaya mungkin lebih berarti daripada sedikit kekurangan dalam performa.
Pencipta Datasette, Simon Willison, membandingkan harga token di berbagai model utama di blog-nya dan mendapati DeepSeek sebagai yang termurah di kelasnya.
DeepSeek mematok harga $0,14 per satu juta token masukan (*input*) dan $0,28 per satu juta token keluaran (*output*) untuk model V4 Flash. Sebagai perbandingan, GPT-5.4 Nano mematok harga $0,20 per juta token *input* dan $1,25 per juta token *output*, sementara Claude Haiku 4.5 dibanderol $1 dan $5 per juta token *input* dan *output*.
Kesenjangan harga bahkan semakin dramatis ketika menyangkut model pro. DeepSeek memasang tarif $1,74 per satu juta token *input* dan $3,48 per satu juta token *output* untuk model V4 Pro. Bandingkan dengan Gemini 3.1 Pro yang harganya $2 per juta token *input* dan tentu saja bisa $12 per juta token *output*, atau GPT-5.5 yang mencapai $5 dan $30 per juta token *input* dan *output* secara berturut-turut.
Dan tentu saja, sejalan dengan perilisan DeepSeek sebelumnya, V4 memiliki lisensi MIT dan *open-weight*. Jadi, jika Anda punya sumber daya untuk menjalankannya, ia \”gratis\” seperti film di Netflix yang \”gratis\”. Tidak ada yang menagih Anda saat menekan tombol putar, namun meteran tetap berjalan di suatu tempat. Dalam hal ini, yang jadi meternya… ya tagihan listrik Anda.