Model bahasa besar modern (LLM) mungkin bisa menulis soneta indah dan kode elegan, tapi mereka tak punya kemampuan dasar untuk belajar dari pengalaman.
Peneliti di Massachusetts Institute of Technology (MIT) kini telah merancang cara agar LLM terus berkembang dengan menyesuaikan parameternya sendiri berdasarkan informasi baru yang berguna.
Karya ini merupakan langkah menuju pembangunan model kecerdasan buatan yang belajar terus-menerus—tujuan lama di bidang ini dan sesuatu yang krusial jika mesin ingin lebih mirip kecerdasan manusia. Sementara itu, ini bisa memberikan chatbot dan alat AI lain yang lebih mampu memuat informasi baru termasuk minat dan preferensi pengguna.
Skema MIT, disebut *Self Adapting Language Models* (SEAL), melibatkan LLM untuk belajar menghasilkan data pelatihan sintetis dan prosedur pembaruan berdasarkan input yang diterima.
“Ide awalnya adalah mengeksplorasi apakah token [unit teks yang diberikan ke LLM dan dihasilkan olehnya] bisa menyebabkan pembaruan signifikan pada model,” kata Jyothish Pari, mahasiswa PhD di MIT yang terlibat pengembangan SEAL. Pari bilang idenya adalah melihat apakah output model bisa digunakan untuk melatihnya.
Adam Zweiger, peneliti sarjana MIT yang terlibat membangun SEAL, menambahkan bahwa meskipun model baru bisa “bernalar” menuju solusi lebih baik melalui inferensi kompleks, model itu sendiri tidak mendapat manfaat jangka panjang.
SEAL, sebaliknya, menghasilkan wawasan baru lalu memasukkannya ke bobot atau parameternya. Misalnya, diberikan pernyataan tantangan program luar angkasa Apollo, model menghasilkan teks baru yang mencoba mendeskripsikan implikasinya. Peneliti membandingkannya dengan cara mahasiswa menulis dan meninjau catatan untuk membantu pembelajaran.
Sistem lalu memperbarui model dengan data ini dan menguji seberapa baik model baru bisa menjawab serangkaian pertanyaan. Akhirnya, ini memberikan sinyal *reinforcement learning* yang membimbing model menuju pembaruan yang meningkatkan kemampuannya dan membantunya terus belajar.
Peneliti menguji pendekatannya pada versi kecil dan menengah dua model *open source*, Llama milik Meta dan Qwen milik Alibaba. Mereka bilang pendekatan ini juga bisa bekerja untuk model besar.
Peneliti menguji SEAL pada teks dan *benchmark* bernama ARC yang mengukur kemampuan model AI menyelesaikan masalah penalaran abstrak. Di kedua kasus, SEAL memungkinkan model terus belajar melampaui pelatihan awalnya.
Pulkit Agrawal, profesor MIT yang mengawasi pekerjaan ini, mengatakan proyek SEAL menyentuh tema penting dalam AI, termasuk bagaimana membuat AI mencari tahu sendiri apa yang harus dipelajari. Dia bilang ini bisa digunakan untuk mempersonalisasi model AI. “LLM kuat tapi kita tidak ingin pengetahuannya berhenti,” katanya.
SEAL belum bisa membuat AI berkembang tanpa batas. Salah satunya, seperti catat Agrawal, LLM yang diuji mengalami “lupa katastrofik”—efek mengganggu di mana informasi baru menghapus pengetahuan lama. Ini mungkin menunjukkan perbedaan mendasar antara jaringan saraf buatan dan biologis. Pari dan Zweigler juga mencatat SEAL butuh komputasi intensif, dan belum jelas cara terbaik menjadwalkan periode belajar baru. Zweigler menyebut ide menarik bahwa mungkin LLM butuh periode “tidur” untuk mengonsolidasi informasi baru.
Meski ada keterbatasan, SEAL adalah jalan baru yang menarik untuk penelitian AI—dan mungkin akan masuk ke model AI masa depan. Bagaimana pendapatmu tentang AI yang bisa terus belajar? Kirim email ke [email protected] untuk memberi tahu saya.