Apakah Model Baru DeepSeek Pukulan Terbaru untuk AI Berbayar?

NurPhoto/Contributor/NurPhoto via Getty Images

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


**Intisari ZDNET**
* DeepSeek meluncurkan model V3.2-nya pada hari Senin.
* Inisiatif ini bertujuan menjaga agar AI yang mudah diakses tetap kompetitif bagi para pengembang.
* V3.2 memanaskan persaingan antara model *open-source* dan model berpemilik.


Perusahaan AI asal Tiongkok, DeepSeek, kembali membuat gebrakan dengan meluncurkan V3.2, iterasi terbaru dari seri model V3-nya.

Diluncurkan hari Senin, model yang dikembangkan dari versi eksperimental V3.2 yang diumumkan Oktober lalu ini hadir dalam dua varian: “Thinking,” dan “Speciale” yang lebih kuat. DeepSeek menyatakan V3.2 mendorong kapabilitas AI *open-source* lebih jauh lagi. Seperti model DeepSeek lainnya, biayanya hanya sebagian kecil dari model berpemilik, dan bobot dasarnya dapat diakses melalui Hugging Face.

Baca juga: Saya menguji kemampuan coding DeepSeek R1 dan V3 – dan kita belum semuanya terancam (untuk saat ini)

DeepSeek pertama kali mencuri perhatian pada Januari dengan rilisnya R1, sebuah model AI penalaran *open-source* yang mengungguli o1 milik OpenAI dalam beberapa *benchmark* kunci. Mengingat kinerja V3.2 juga menyaingi model berpemilik yang kuat, akankah ini kembali mengguncang industri AI?

Kemampuan V3.2

Isu pertama kali beredar pada September bahwa DeepSeek berencana meluncurkan *agent* yang lebih hemat biaya untuk bersaing dengan OpenAI dan Google. Kini, tampaknya pesaing itu akhirnya tiba.

V3.2 adalah iterasi terbaru dari V3, model yang dirilis DeepSeek hampir setahun lalu dan turut menginformasikan pengembangan R1. Menurut data perusahaan yang diterbitkan hari Senin, V3.2 Speciale mengungguli model berpemilik terkemuka seperti GPT-5 High dari OpenAI, Claude 4.5 Sonnet dari Anthropic, dan Gemini 3.0 Pro dari Google dalam beberapa *benchmark* penalaran (sebagai perbandingan, Kimi K2 dari Moonshot yang juga gratis dan *open-source* mengklaim mampu menyaingi kinerja GPT-5 dan Sonnet 4.5).

MEMBACA  BRI Mendorong Nasabah untuk Tetap Hati-hati terhadap Penipuan Online yang Meningkat menjelang Lebaran

Dari segi biaya, mengakses Gemini 3 melalui API bisa mencapai $4.00 per 1 juta *token*, sementara V3.2 Speciale hanya $0.028 per 1 juta *token*. Menurut perusahaan, model baru ini juga mencapai kinerja tingkat emas dalam Olimpiade Matematika Internasional (IMO) dan Olimpiade Informatika Internasional.

“DeepSeek-V3.2 muncul sebagai alternatif yang sangat efisien biaya dalam skenario *agent*, secara signifikan mempersempit kesenjangan kinerja antara model *open-source* dan model berpemilik terdepan dengan biaya yang jauh lebih rendah,” tulis perusahaan dalam makalah penelitian. Meski klaim ini masih diperdebatkan, sentimen tersebut melanjutkan pola DeepSeek dalam mengurangi biaya dengan setiap rilis model, yang berpotensi meruntuhkan logika investasi besar-besaran yang dituangkan lab berpemilik seperti OpenAI ke dalam model mereka.

Permasalahan yang Diatasi

DeepSeek menyatakan mereka membangun V3.2 dalam upaya membantu komunitas AI *open-source* mengejar beberapa pencapaian teknis yang baru-baru ini dibuat perusahaan pengembang model *closed-source*. Menurut makalah perusahaan, kapabilitas agensia dan penalaran yang ditunjukkan oleh model berpemilik terdepan telah “berakselerasi pada tingkat yang jauh lebih curam” dibandingkan rekan *open-source*-nya.

Baca juga: Rilis *open-source* terbaru Mistral bertaruh pada model yang lebih kecil daripada yang besar – inilah alasannya

Seperti kata insinyur Charles Kettering, “Masalah yang dirumuskan dengan baik adalah masalah yang setengah terpecahkan.” Dalam semangat itu, DeepSeek memulai pengembangan model barunya dengan berusaha mendiagnosis alasan di balik kinerja tertinggal model *open-source*, yang akhirnya dibagi menjadi tiga faktor.

Pertama, model *open-source* cenderung mengandalkan apa yang dikenal peneliti AI sebagai “*vanilla attention*” — mekanisme yang lambat dan rakus komputasi untuk membaca input dan menghasilkan output, membuatnya kesulitan dengan urutan *token* yang lebih panjang. Mereka juga memiliki fase pasca-pelatihan yang lebih terbatas secara komputasi, menghambat kemampuan mereka dalam menyelesaikan tugas yang lebih kompleks. Tidak seperti model berpemilik, mereka sulit mengikuti instruksi panjang dan melakukan generalisasi antar-tugas, membuat mereka menjadi *agent* yang kurang efisien.

MEMBACA  Komisi VI DPR Desak Penerapan DMO untuk Emas, Ini Latar Belakangnya

Solusi yang Ditawarkan

Sebagai tanggapan, perusahaan memperkenalkan DeepSeek Sparse Attention (DSA), suatu mekanisme yang mengurangi “kompleksitas komputasi kritis tanpa mengorbankan kinerja konteks panjang,” menurut makalah penelitian.

Baca juga: Apa itu *sparsity*? Rahasia DeepSeek AI, diungkap oleh peneliti Apple

Dengan *vanilla attention* tradisional, model pada dasarnya menghasilkan outputnya dengan membandingkan setiap *token* individual dari sebuah kueri dengan setiap *token* dalam data pelatihannya — proses yang sangat boros daya. Sebagai analogi, bayangkan Anda harus menggali tumpukan buku yang sangat besar yang berserakan di halaman untuk menemukan kalimat tertentu. Anda bisa melakukannya, tetapi itu akan membutuhkan banyak waktu dan pemeriksaan cermat terhadap sejumlah besar halaman.

Pendekatan DSA berusaha bekerja lebih cerdas, bukan lebih keras. Ini diterapkan dalam dua fase: pencarian awal “*lightning indexer*,” yang melakukan pemindaian tingkat tinggi terhadap *token* dalam data pelatihan untuk mengidentifikasi subset kecil yang kemungkinan paling relevan dengan kueri tertentu. Kemudian, ia mengebor subset itu dengan kekuatan komputasi penuhnya untuk menemukan yang dicari. Daripada memulai dengan tumpukan buku raksasa, Anda sekarang dapat berjalan ke perpustakaan yang tertata rapi, pergi ke bagian yang relevan, dan melakukan pencarian yang jauh lebih singkat dan tak terlalu melelahkan untuk menemukan bagian yang Anda cari.

Perusahaan kemudian bertujuan memecahkan masalah pasca-pelatihan dengan membangun model “*specialist*” untuk menguji dan memperhalus kemampuan V3.2 dalam menulis, menjawab pertanyaan umum, matematika, pemrograman, penalaran logis, tugas agensia, *coding* agensia, dan pencarian agensia. Mereka ibarat tutor yang bertugas mengubah model dari seorang generalis menjadi multi-spesialis.

Keterbatasan

Menurut makalah penelitian, DeepSeek V3.2 “secara efektif menjembatani kesenjangan antara efisiensi komputasi dan kapabilitas penalaran tingkat lanjut” dan “[membuka] kemungkinan baru untuk *AI agent* yang tangguh dan dapat digeneralisasi” melalui AI *open-source*.

MEMBACA  Penawaran Fire TV Terbaik: Hemat $70 untuk Amazon Fire TV 2-Series 40 inci

Baca juga: Berhenti mengatakan AI berhalusinasi – itu tidak benar. Dan kesalahan karakterisasi itu berbahaya

Namun, ada beberapa catatan. Salah satunya, “*world knowledge*” model baru ini — luasnya pemahaman praktis tentang dunia nyata yang dapat disimpulkan dari korpus data pelatihan — jauh lebih terbatas dibandingkan model berpemilik terdepan. Ia juga membutuhkan lebih banyak *token* untuk menghasilkan output yang setara kualitasnya dengan output dari model berpemilik terdepan, dan ia kesulitan dengan tugas yang lebih kompleks. **NurPhoto/Contributor/NurPhoto via Getty Images**
DeepSeek menyatakan rencana mereka untuk terus menjembatani kesenjangan antara model *open-source* miliknya dan rekan *proprietari*-nya dengan meningkatkan skala komputasi selama tahap *pretraining* dan menyempurnakan “resep *post-training*” mereka.

Meski dengan berbagai keterbatasan ini, fakta bahwa sebuah perusahaan—dan itu pula yang berbasis di Tiongkok—telah membangun model *open-source* yang mampu bersaing dalam kapabilitas penalaran dengan beberapa model *proprietari* paling mutakhir di pasaran merupakan suatu pencapaian besar. Hal ini memperkuat bukti yang semakin berkembang bahwa “kesenjangan kinerja” antara model *open-source* dan *closed-source* bukanlah fakta tetap dan tak terselesaikan, melainkan suatu diskrepansi teknis yang dapat dijembatani melalui pendekatan kreatif dalam *pretraining*, *attention*, dan *post-training*.

Yang lebih penting lagi, fakta bahwa *underlying weights*-nya hampir gratis untuk diakses dan dikembangkan oleh para *developer* berpotensi menggerogoti proposisi nilai dasar yang selama ini diandalkan oleh pengembang utama model *closed-source* di industri: bahwa layak membayar untuk mengakses alat-alat ini karena mereka adalah yang terbaik di pasaran. Jika model *open-source* melampaui model *proprietari*, bagi kebanyakan orang tidaklah masuk akal untuk terus membayar yang terakhir.