Meskipun namanya OpenAI, perusahaan ini belum merilis model yang benar-benar “terbuka” — yaitu model yang menyertakan akses ke bobot (weights) atau parameter numerik yang sering disebut sebagai otak model — sejak GPT-2 di tahun 2020. Hal ini berubah pada Selasa lalu: perusahaan meluncurkan model open-weight yang telah lama ditunggu, dalam dua ukuran, yang menurut OpenAI mendorong batas kemampuan penalaran dalam AI open-source.
“Kami sangat bersemangat untuk membagikan model ini, hasil penelitian senilai miliaran dolar, kepada dunia agar AI bisa digunakan oleh sebanyak mungkin orang,” kata CEO OpenAI Sam Altman tentang peluncuran ini. “Sebagai bagian dari ini, kami sangat berharap rilis ini akan memungkinkan jenis penelitian baru dan pembuatan produk-produk baru.” Dia menekankan bahwa dia “bersemangat agar dunia dapat mengembangkan AI yang terbuka, dibuat di Amerika Serikat, berdasarkan nilai-nilai demokrasi, tersedia gratis untuk semua dan bermanfaat luas.”
Altman sudah memberi petunjuk tentang model ini pada Maret lalu, dua bulan setelah mengakui — setelah kesuksesan model-model terbuka DeepSeek dari Tiongkok — bahwa perusahaan sebelumnya “berada di sisi yang salah sejarah” dalam hal membuka model mereka untuk pengembang. Tapi meskipun bobotnya kini publik, para ahli mencatat bahwa model baru OpenAI ini tidak sepenuhnya “terbuka”. Perusahaan sama sekali tidak membagikan aset paling berharganya: arsitektur kepemilikan, mekanisme routing, data pelatihan, dan metode yang digunakan untuk model paling canggihnya — termasuk GPT-5 yang telah lama ditunggu dan diperkirakan akan dirilis bulan ini — tetap dirahasiakan.
OpenAI menargetkan pengembang AI
Nama dua model baru — gpt-oss-120b dan gpt-oss-20b — mungkin sulit dimengerti oleh non-insinyur, tapi itu karena OpenAI membidik para pengembang AI yang ingin cepat membangun solusi untuk kasus penggunaan nyata di sistem mereka sendiri. Perusahaan mencatat bahwa model yang lebih besar bisa dijalankan di satu chip Nvidia 80GB, sementara yang lebih kecil cocok untuk perangkat konsumen seperti laptop Mac.
Greg Brockman, co-founder dan presiden OpenAI, mengakui dalam panggilan pers bahwa “sudah lama sekali” sejak perusahaan merilis model terbuka. Dia menambahkan bahwa ini “kami anggap sebagai pelengkap produk lain yang kami rilis” dan bersama model kepemilikan OpenAI, “akan mempercepat misi kami memastikan bahwa API bermanfaat bagi seluruh umat manusia.”
OpenAI mengatakan model baru ini bekerja baik dalam tes penalaran, yang menjadi tolok ukur utama performa AI, di mana model dari OpenAI, Anthropic, Google, dan DeepSeek bersaing ketat dalam kemampuan menyelesaikan logika multi-tahap, generasi kode, dan pemecahan masalah kompleks. Sejak model open-source DeepSeek R1 mengguncang industri pada Januari dengan kemampuan penalaran biaya rendah, banyak model Tiongkok lain mengikuti — termasuk Qwen dari Alibaba dan model Kimi milik Moonshot AI. Meski OpenAI mengatakan model open-weight baru ini merupakan upaya proaktif memenuhi permintaan pengguna, ini jelas juga respons strategis menghadapi persaingan open-source yang semakin ketat.
Menariknya, OpenAI menolak membandingkan model open-weight baru mereka dengan sistem open-source Tiongkok seperti DeepSeek atau Qwen — meskipun model-model itu baru-baru ini mengungguli saingan AS dalam tes penalaran kunci. Dalam briefing pers, perusahaan menyatakan percaya diri dengan hasil tes terhadap model mereka sendiri dan akan membiarkan komunitas AI untuk menguji lebih lanjut dan “menarik kesimpulan sendiri”.
Menghindari kebocoran kekayaan intelektual
Model open-weight baru OpenAI dibangun menggunakan arsitektur mixture-of-experts (MoE), di mana sistem hanya mengaktifkan “pakar” atau subnet yang diperlukan untuk input tertentu, bukan menggunakan seluruh model untuk setiap permintaan. Dylan Patel, pendiri firma riset SemiAnalysis, mencatat di X sebelum rilis bahwa OpenAI melatih model hanya dengan komponen arsitektur yang sudah dikenal publik — artinya blok bangunan yang digunakan sudah dikenal komunitas open-source. Dia menekankan ini pilihan sengaja — dengan menghindari teknik pelatihan atau inovasi arsitektur kepemilikan, OpenAI bisa merilis model yang benar-benar berguna tanpa membocorkan kekayaan intelektual yang menjadi dasar model kepemilikan mereka seperti GPT-4o.
Misalnya, dalam dokumen model yang dirilis, OpenAI mengonfirmasi model ini menggunakan arsitektur MoE dengan 12 pakar aktif dari total 64, tapi tidak menjelaskan mekanisme routing, yang merupakan bagian krusial dan kepemilikan dari arsitektur.
“Anda ingin meminimalkan risiko bisnis, tapi juga ingin sangat berguna bagi publik,” kata Aleksa Gordic, mantan peneliti Google DeepMind, menambahkan bahwa perusahaan seperti Meta dan Mistral, yang juga fokus pada model open-weight, sama-sama tidak memasukkan informasi kepemilikan.
“Mereka meminimalkan kebocoran IP dan menghilangkan risiko untuk bisnis inti, sekaligus berbagi alat yang berguna untuk ekosistem startup dan pengembang,” katanya. “Ini jelas yang terbaik yang bisa mereka lakukan untuk mencapai dua tujuan yang bertentangan itu.”