Gemma 2 Google Hadir Terbuka Sepenuhnya, Buka Kekuatan AI Lokal yang Tangguh—Bahkan di Ponsel

Elyse Betters Picaro / ZDNET

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.

*

Intisari ZDNET**

  • Gemma 4 kini sepenuhnya open-source di bawah lisensi Apache 2.0.
  • AI lokal memungkinkan privasi, penggunaan offline, dan biaya lebih rendah.
  • Dari server hingga smartphone, penerapannya menjadi jauh lebih mudah.

    ***

    Google mengumumkan hari ini bahwa divisi penelitian AI DeepMind-nya merilis Gemma 4, generasi terbaru dari model bahasa besar terbuka. Model-model ini dirilis di bawah lisensi Apache 2.0, menjadikannya benar-benar open source dibandingkan dengan lisensi yang permisif namun masih terkendali pada generasi Gemma sebelumnya.

    Apa Itu Gemma?

    Gemma adalah LLM seperti Gemini. Namun di sini, yang kita bicarakan adalah mesin pemrosesan AI, bukan antarmuka chatbot. Baik Gemma maupun Gemini dikembangkan menggunakan penelitian dan teknologi yang sama. Perbedaannya, Gemini adalah produk tertutup berbasis langganan, sedangkan Gemma adalah model terbuka yang dapat diunduh dan dijalankan secara lokal secara gratis.

    Kemampuan untuk menjalankan model AI secara lokal tanpa biaya menguntungkan berbagai aplikasi. Banyak pihak yang ingin menjalankan AI di rumah, tanpa bergantung pada cloud, dan secara gratis.

    Selain itu: Bagaimana AI tiba-tiba menjadi jauh lebih berguna bagi pengembang open-source

    Kemampuan untuk menjaga segala sesuatu tetap lokal sangat penting bagi perusahaan yang memiliki persyaratan kedaulatan atau kerahasiaan data. Contohnya, penyedia layanan kesehatan mungkin memiliki batasan regulasi yang mencegah mereka membagikan data pasien ke penyedia cloud publik, namun mereka tetap ingin mendapatkan manfaat dari AI. Dengan menjalankan seluruh sistem secara lokal, tidak ada data yang dikirim ke cloud, namun kemampuan AI tetap tersedia.

    Banyak perangkat, mulai dari smartphone hingga berbagai perangkat IoT dan edge, yang mungkin hanya memiliki konektivitas jaringan yang terputus-putus (atau bahkan tidak sama sekali). Kemampuan untuk menjalankan operasi AI tanpa biaya tambahan dan tanpa perlu terhubung ke pusat data memberikan manfaat yang cukup besar dalam hal fleksibilitas, keamanan, dan pengendalian biaya.

    Selain itu: Saya menggunakan alat AI Gmail untuk melakukan pekerjaan berjam-jam hanya dalam 10 menit – dengan 3 perintah

    Jadi, sementara Anda mungkin menjalankan Gemini di antarmuka obrolan Anda, Anda dapat memasang Gemma pada Raspberry Pi untuk memantau suatu proses di pabrik dan mengambil keputusan secara real-time tanpa latensi dari perjalanan bolak-balik ke cloud.

    Kabar Besar tentang Lisensi

    Versi Gemma sebelumnya dilisensikan di bawah pernyataan Ketentuan Penggunaan Gemma, bukan di bawah struktur lisensi open-source formal. Google mengizinkan pengguna mengunduh Gemma, menggunakannya secara lokal, dan melakukan modifikasi, tetapi mereka membatasi penggunaannya pada kategori yang disetujui dan membatasi redistribusi.

    Pendekatan ini memungkinkan keluarga model disebut "terbuka" tetapi bukan "open source." Ada banyak kebebasan terkait penggunaan Gemma, tetapi Google masih memegang kendali.

    Sebaliknya, lisensi Apache 2.0 memberikan kebebasan hampir total. Pengguna dan pengembang dapat menggunakan perangkat lunak untuk tujuan apa pun, baik pribadi, komersial, atau perusahaan, dan tanpa syarat royalti. Jika Anda mendistribusikan perangkat lunak tersebut, Anda wajib menyertakan salinan lisensi Apache 2.0 dan memberikan atribusi yang diperlukan.

    Pengguna dan pengembang bebas memodifikasi dan mendistribusikan ulang kode, dengan hak untuk membuat karya turunan dan mendistribusikan versi asli maupun yang dimodifikasi.

    Selain itu: Mengapa AI adalah kutukan sekaligus berkah bagi pengembang perangkat lunak open-source

    Ada juga perlindungan dan penalti terkait paten yang menarik. Dalam hal perlindungan, pengguna yang berlisensi Apache 2.0 diberikan lisensi untuk paten apa pun yang mencakup kontribusi, sehingga gugatan paten tidak dapat menargetkan pengguna hanya karena menggunakan perangkat lunak tersebut. Di sisi lain, jika Anda menggugat seseorang dengan klaim perangkat lunak melanggar paten Anda, Anda secara otomatis kehilangan lisensi untuk menggunakan perangkat lunak tersebut.

    Google tidak lagi menggunakan ketentuan penggunaannya sendiri untuk Gemma 4. Sebaliknya, mereka melisensikan Gemma 4 di bawah lisensi Apache 2.0, yang berarti pengguna dan pengembang dapat menggunakan dan mendistribusikan model tersebut dengan cara apa pun yang mereka inginkan tanpa batasan.

    Jagat Gemma (Gemmaverse)

    Sejak rilis Gemma dua tahun lalu, pada Februari 2024, model terbuka ini mengalami adopsi yang cukup besar.

    Menurut Clement Farabet, Wakil Presiden Riset, dan Olivier Lacombe, Manajer Produk Grup di Google DeepMind, "Sejak peluncuran generasi pertama kami, pengembang telah mengunduh Gemma lebih dari 400 juta kali, membangun Gemmaverse yang dinamis dengan lebih dari 100.000 varian."

    Selain itu: 7 Teknik pengkodean AI yang saya gunakan untuk menghasilkan produk nyata dan andal – dengan cepat

    Tetapi seperti yang dilaporkan ZDNET kala itu, "Penawaran AI terbaru Google adalah ‘model terbuka’ tetapi bukan ‘open-source’. Perbedaan itu penting." Itu dulu, dan ini sekarang.

    Kini, Gemma 4 dirilis sebagai perangkat lunak open-source murni, yang berarti kita dapat mengharapkan tingkat adopsi meningkat bahkan melampaui yang kita lihat dalam 26 bulan terakhir. Kita tidak hanya dapat mengharapkan Gemma 4 diadopsi dalam lebih banyak proyek, tetapi sekarang juga secara sah memungkinkan untuk membundel AI dengan produk, layanan, dan perangkat yang dapat memperoleh manfaat dari model on-board yang kuat.

    Kapabilitas Model

    Gemma 4 sebenarnya adalah satu set empat model. Dua model dirancang untuk server kelas atas dengan GPU yang kuat, seperti Nvidia H100. Model-model ini, yang dikenal sebagai 26B dan 31B, memiliki jejak parameter yang besar. Versi 26B berfokus pada pengurangan latensi, dengan mengaktifkan sebagian dari total set parameternya untuk inferensi. Model 31B dirancang untuk memaksimalkan kekuatan mentah dan kualitas, membawa semua kemampuannya untuk menyelesaikan masalah apa pun yang diminta.

    Dua model lainnya dirancang untuk ujung bawah. Disebut E2B dan E4B, model-model ini ditujukan untuk perangkat seluler dan IoT, meskipun juga akan berjalan baik di PC rumah Anda. Model-model ini masing-masing memiliki jejak parameter dua dan empat miliar, membatasi dampak pada perangkat sehingga dapat berjalan efisien pada perangkat seluler dan edge.

    Selain itu: Saya membuat dua aplikasi hanya dengan suara dan mouse – apakah IDE sudah usang?

    Menurut Farabet dan Lacombe dari Google, "Dalam kolaborasi erat dengan tim Google Pixel dan pemimpin perangkat keras seluler seperti Qualcomm Technologies dan MediaTek, model multimodal ini berjalan sepenuhnya offline dengan latensi hampir nol di berbagai perangkat edge seperti ponsel, Raspberry Pi, dan Jetson Nano."

    Perusahaan menyatakan semua model mendukung kapabilitas berikut:

  • Penalaran Lanjut: Gemma 4 mampu melakukan perencanaan multi-langkah dan logika mendalam.
  • Alur Kerja Agen: Gemma 4 dapat menerapkan agen otonom yang berinteraksi dengan berbagai alat dan API, serta mengeksekusi alur kerja dengan andal.
  • Keamanan: Model Gemma "Menjalani protokol keamanan infrastruktur yang sama ketatnya dengan model kepemilikan kami," menurut postingan blog pengumuman.
  • Generasi Kode: Gemma 4 mendukung generasi kode offline. Kemampuan ini bisa menjadi keuntungan besar bagi mereka yang terjebak dalam penerbangan panjang tanpa koneksi jaringan.
  • Visual dan Audio: Menurut Google, "Semua model memproses video dan gambar secara native, mendukung resolusi variabel, dan unggul dalam tugas visual seperti OCR dan pemahaman bagan. Selain itu, model E2B dan E4B memiliki input audio native untuk pengenalan dan pemahaman ucapan."
  • Konteks Lebih Panjang: Model E2B dan E4B mendukung jendela konteks 128K, memungkinkan memori kerja yang cukup besar untuk model kecil dan portabel. Model yang lebih besar mendukung hingga jendela konteks 256K, memungkinkan pengguna untuk "mengirimkan repositori atau dokumen panjang dalam satu prompt."
  • Dukungan Multi-Bahasa: Google menyatakan Gemma 4 telah dilatih secara native pada lebih dari 140 bahasa.

    Tidak ada indikasi bahwa Bahasa Klingon Percakapan termasuk di antaranya. Namun, mengingat Gemma 4 telah dilatih pada sejumlah besar data publik dari web, dan adanya komunitas dedikatif, kamus, serta banyak konten buatan penggemar secara daring, hampir dapat dipastikan Klingon muncul dalam data pelatihan, yang berarti model tersebut seharusnya mampu melakukan beberapa penerjemahan dasar setidaknya.

    Dalam postingan blog mereka, Farabet dan Lacombe mengatakan, "Gemma 4 mengungguli model yang 20 kali lebih besar darinya. Bagi pengembang, tingkat kecerdasan-per-parameter baru ini berarti mencapai kemampuan tingkat frontier dengan overhead perangkat keras yang jauh lebih sedikit."

    Jika Anda dapat menerapkan Gemma 4 pada perangkat lokal hari ini, tugas nyata apa yang pertama kali akan Anda percayakan untuk ditanganinya? Beri tahu kami di komentar di bawah.

    ***

    Anda dapat mengikuti pembaruan proyek harian saya di media sosial. Pastikan untuk berlangganan buletin pembaruan mingguan saya, dan ikuti saya di Twitter/X di @DavidGewirtz, di Facebook di Facebook.com/DavidGewirtz, di Instagram di Instagram.com/DavidGewirtz, di Bluesky di @DavidGewirtz.com, dan di YouTube di YouTube.com/DavidGewirtzTV.

MEMBACA  Kamera paling serbaguna yang pernah saya uji harganya $499 dan bukan dari Sony atau Canon

Tinggalkan komentar