Mencoba Claude Code Rival Lokal: Sumber Terbuka, Sepenuhnya Gratis—Ini Hasilnya

Oleh: Elyse Betters Picaro / ZDNET

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.

Kesimpulan Utama ZDNET:

  • Alat AI gratis, Goose dan Qwen3-coder, berpotensi menggantikan paket berbayar Claude Code.
  • Setup relatif mudah, tapi memerlukan perangkat lokal yang cukup bertenaga.
  • Uji coba awal menunjukkan hasil yang menjanjikan, meski masih ada masalah dalam akurasi dan perlunya percobaan berulang.

    Jack Dorsey, pendiri Twitter (kini X), Square (kini Block), dan Bluesky, pada Juli lalu memposting pernyataan yang cukup kriptik di X, bunyinya: "goose + qwen3-coder = wow".

    Sejak itu, minat terhadap Goose dan Qwen3-coder meningkat. Goose, dikembangkan oleh perusahaan Dorsey, Block, adalah framework agent sumber terbuka yang mirip dengan Claude Code. Qwen3-coder adalah model bahasa besar (large language model/LLM) berfokus koding, serupa dengan Sonnet-4.5. Keduanya gratis.

    Bersama-sama, menurut kabar di internet, mereka dapat dikombinasikan untuk menciptakan pesaing gratis bagi Claude Code. Tapi, benarkah? Saya memutuskan untuk mencari tahu.

    Ini adalah artikel pertama dari tiga tulisan yang akan membahas integrasi Goose (framework agent), Ollama (server LLM), dan Qwen3-coder (LLM-nya).

    Pada artikel ini, saya akan tunjukkan cara menyiapkan semuanya. Di artikel berikutnya, saya akan berikan pemahaman lebih mendalam tentang peran masing-masing alat dalam proses koding dengan AI agent. Terakhir, saya akan coba gunakan alat-alat ini untuk membangun aplikasi iPad yang lengkap, sebagai kelanjutan dari aplikasi yang pernah saya buat dengan Claude Code.

    Oke, mari mulai. Saya menyiapkan ini di Mac, tapi Anda bisa instal ketiga alat ini di mesin Windows atau Linux Anda.

    Mengunduh Perangkat Lunak

    Anda perlu mulai dengan mengunduh Goose dan Ollama. Model Qwen3-coder nanti akan diunduh dari dalam Ollama.

    Awalnya saya mengunduh dan menginstal Goose terlebih dahulu. Tapi saya tidak bisa membuatnya berkomunikasi dengan Ollama. Coba tebak kesalahan saya? Ya. Saya belum mengunduh dan menyiapkan Ollama.

    Menginstal Ollama dan Qwen3-coder

    Rekomendasi saya, instal Ollama dulu. Saya menggunakan MacOS, tapi Anda bisa gunakan sistem operasi pilihan. Anda juga bisa instal versi command-line Ollama, tapi saya lebih suka versi aplikasinya.

    Unduh Ollama. Lalu, klik dua kali installer-nya. Setelah aplikasi terbuka, Anda akan lihat antarmuka seperti chat. Di sebelah kanan, ada pilihan model. Default saya adalah gpt-oss-20b.

    Klik itu, dan daftar model akan muncul. Saya pilih Qwen3-coder:30b, di mana ’30b’ merujuk pada jumlah parameter model. Ini adalah model yang dioptimalkan untuk koding dengan sekitar 30 miliar parameter.

    Perhatikan bahwa model tidak akan terunduh sampai dipaksa menjawab sebuah prompt. Saya ketik kata "test", dan model pun terunduh.

    Catat bahwa model ini berukuran 17GB, jadi pastikan Anda punya ruang penyimpanan cukup. Persyaratan ini menyoroti salah satu keuntungan besar proyek ini. AI Anda berjalan lokal, di mesin Anda sendiri. Anda tidak mengirim apa pun ke cloud.

    Setelah Qwen3-coder terinstal, Anda perlu membuat instance Ollama terlihat oleh aplikasi lain di komputer. Untuk langkah ini, pilih Settings dari menu Ollama di menu bar Anda.

    Aktifkan Expose Ollama to the network. Saya biarkan Ollama menginstal dirinya di direktori .ollama. Pendekatan ini menyembunyikan direktori, jadi ingatlah Anda memiliki file 17GB tersembunyi di sana.

    Terakhir, saya atur context length saya ke 32K. Saya punya RAM 128GB di mesin ini, jadi jika nanti context-nya hampir habis, saya akan tingkatkan. Tapi saya ingin lihat seberapa baik pendekatan ini bekerja dengan ruang context yang lebih kecil.

    Perhatikan juga bahwa saya tidak masuk (sign in) ke Ollama. Anda bisa buat akun dan gunakan beberapa layanan cloud. Tapi kita berusaha melakukan ini sepenuhnya gratis dan lokal, jadi saya hindari sign in sebisa mungkin.

    Selesai untuk Ollama dan Qwen3-coder. Anda perlu menjalankan Ollama setiap kali menggunakan Goose, tapi mungkin Anda tidak akan banyak berinteraksi dengannya setelah ini.

    Menginstal Goose

    Selanjutnya, mari instal Goose. Jalankan installer-nya. Seperti Ollama, ada beberapa implementation Goose. Saya pilih versi Desktop MacOS Apple Silicon.

    Saat pertama kali menjalankan Goose, Anda akan dapat layar Welcome ini. Ada beberapa pilihan konfigurasi, tapi karena kita mengepakai setup gratis, gulir ke bawah ke bagian Other Providers dan klik Go to Provider Settings.

    Di sini, Anda akan lihat daftar panjang berbagai alat agent dan LLM yang bisa dijalankan. Gulir ke bawah, cari Ollama, dan tekan Configure.

    Setelah langkah itu, Anda akan diminta untuk Configure Ollama. Di sinilah saya agak bingung karena, bodohnya, saya kira "Configure Ollama" berarti saya sedang mengonfigurasi Ollama-nya sendiri. Ternyata tidak. Yang Anda lakukan (di sini, dan untuk provider lain) adalah mengonfigurasi koneksi Anda, dalam hal ini ke Ollama.

    Anda akan diminta memilih model. Sekali lagi, pilih qwen3-coder:30b.

    Setelah memilih Ollama dan qwen3-coder:30b, tekan Select Model.

    Selamat. Anda kini telah menginstal dan mengonfigurasi sebuah coding agent lokal, berjalan di komputer Anda.

    Mencoba Goose

    Seperti chatbot lainnya, Anda perlu ketik prompt di area yang disediakan. Tapi pertama-tama, baik untuk memberi tahu Goose direktori yang akan digunakan. Untuk tes awal, saya atur Goose untuk bekerja dari folder sementara. Anda tentukan ini di (1) dengan mengetuk direktori yang sudah ditampilkan.

    Perhatikan juga bahwa model yang berjalan ditunjukkan di (2). Anda bisa atur Goose untuk menjalankan beberapa model, tapi untuk sekarang kita coba pakai satu ini dulu.

    Sebagai tes, saya gunakan tantangan standar saya — membangun plugin WordPress sederhana. Pada percobaan pertama, Goose/Qwen3 gagal. Ia menghasilkan sebuah plugin, tapi tidak berfungsi.

    Pada percobaan kedua dan ketiga, setelah menjelaskan apa yang tidak bekerja kepada Goose/Qwen3, ia kembali gagal, dan gagal lagi.

    Pada percobaan ketiga, ia menjalankan fungsi randomization, tapi tidak sepenuhnya mengikuti instruksi, yang agak menghilangkan tujuan awal plugin tersebut.

    Dibutuhkan lima putaran bagi Goose untuk mendapatkan hasil yang benar, dan ia terlihat sangat, sangat puas dengan dirinya sendiri tentang seberapa benar ia mengharapkan dirinya.

    Kesan Pertama

    Jadi, apa pendapat saya tentang pendekatan ini? Saya agak kecewa butuh lima percobaan bagi Goose untuk menyelesaikan tes kecil saya. Saat saya menguji beberapa chatbot gratis dengan tugas yang sama, semua kecuali Grok dan Gemini versi pra-3 berhasil pada percobaan pertama.

    Tapi perbedaan besar antara koding dengan chatbot dan koding agentic adalah bahwa alat agentic seperti Claude Code dan Goose bekerja langsung pada kode sumber. Oleh karena itu, koreksi berulang memang memperbaiki basis kode yang aktual.

    Ketika kolega saya Tiernan Ray mencoba Ollama di Mac M1 16GB-nya, ia merasa kinerjanya tak tertahankan. Tapi saya menjalankan setup ini di Mac Studio M4 Max dengan RAM 128GB. Saya bahkan membuka Chrome, Fusion, Final Cut, VS Code, Xcode, Wispr Flow, dan Photoshop secara bersamaan.

    Sejauh ini, saya baru menjalankan tes pemrograman yang cukup sederhana, tapi secara keseluruhan kinerjanya cukup baik. Saya tidak merasakan perbedaan nyata dalam kecepatan respons antara instance lokal yang menjalankan Goose di Mac Studio saya dengan produk hybrid lokal/cloud seperti Claude Code dan OpenAI Codex yang menggunakan infrastruktur besar perusahaan AI.

    Tapi ini masih kesan pertama. Saya akan lebih mampu memberi tahu apakah solusi gratis ini bisa menggantikan alternatif berbayar seperti paket Max Claude Code seharga $100/bulan atau paket Pro OpenAI seharga $200/bulan, setelah saya menjalankan proyek besar melaluinya. Analisis itu masih akan datang, jadi nantikanlah.

    Apakah Anda pernah mencoba menjalankan LLM fokus koding secara lokal dengan alat seperti Goose, Ollama, atau Qwen? Bagaimana proses setup-nya bagi Anda, dan di hardware apa Anda menjalankannya? Jika Anda pernah menggunakan opsi cloud seperti Claude atau OpenAI Codex, bagaimanakah perbandingan kinerja lokal dan kualitas hasilnya? Beri tahu kami di komentar.

    Anda bisa ikuti perkembangan proyek harian saya di media sosial. Pastikan berlangganan buletin mingguan saya, dan ikuti saya di Twitter/X di @DavidGewirtz, di Facebook di Facebook.com/DavidGewirtz, di Instagram di Instagram.com/DavidGewirtz, di Bluesky di @DavidGewirtz.com, dan di YouTube di YouTube.com/DavidGewirtzTV.

MEMBACA  Mengapa Kita Masih Menanti 'The Batman II'?

Tinggalkan komentar