Mimpi Kecerdasan Buatan: Akankah Model Bahasa Besar Melahirkan Agen AI?

Selama tidur, otak manusia menyortir berbagai memori, mengonsolidasi yang penting dan membuang yang tidak relevan. Bagaimana jika AI bisa melakukan hal yang sama?

Bilt, sebuah perusahaan yang menawarkan penawaran belanja dan restoran lokal untuk penyewa, baru-baru ini meluncurkan beberapa juta agen dengan harapan dapat melakukan persis itu.

Bilt menggunakan teknologi dari startup bernama Letta yang memungkinkan agen untuk belajar dari percakapan sebelumnya dan berbagi memori satu sama lain. Melalui proses yang disebut “sleeptime compute,” para agen memutuskan informasi apa yang akan disimpan di brankas memori jangka panjang dan apa yang mungkin diperlukan untuk diakses lebih cepat.

“Kami dapat membuat satu pembaruan pada blok [memori] dan perilaku ratusan ribu agen berubah,” kata Andrew Fitz, seorang insinyur AI di Bilt. “Ini berguna dalam skenario apa pun di mana Anda ingin kontrol yang sangat detail atas konteks agen,” tambahnya, merujuk pada prompt teks yang diberikan ke model pada saat inferensi.

Model bahasa besar biasanya hanya dapat “mengingat” sesuatu jika informasi dimasukkan ke dalam jendela konteks. Jika Anda ingin chatbot mengingat percakapan terakhir Anda, Anda perlu menempelkannya ke dalam chat.

Sebagian besar sistem AI hanya dapat menangani jumlah informasi yang terbatas dalam jendela konteks sebelum kemampuan mereka untuk menggunakan data goyah dan mereka berhalusinasi atau menjadi bingung. Sebaliknya, otak manusia mampu menyimpan informasi berguna dan mengingatnya kembali nanti.

“Otak Anda terus-menerus membaik, menambahkan lebih banyak informasi seperti spons,” kata Charles Packer, CEO Letta. “Dengan model bahasa, itu seperti kebalikan persisnya. Anda menjalankan model bahasa ini dalam satu lingkaran cukup lama dan konteksnya menjadi terkontaminasi; mereka menjadi tidak terkendali dan Anda hanya ingin mengatur ulang.”

MEMBACA  Tarif Besar Trump dan Ambisi Kecil

Packer dan rekannya pendiri Sarah Wooders sebelumnya mengembangkan MemGPT, sebuah proyek sumber terbuka yang bertujuan membantu LLM memutuskan informasi apa yang harus disimpan dalam memori jangka pendek vs. jangka panjang. Dengan Letta, duo ini telah memperluas pendekatan mereka untuk memungkinkan agen belajar di latar belakang.

Kolaborasi Bilt dengan Letta adalah bagian dari dorongan yang lebih luas untuk memberikan AI kemampuan menyimpan dan mengingat informasi berguna, yang dapat membuat chatbot lebih cerdas dan agen kurang rentan kesalahan. Memori masih kurang berkembang dalam AI modern, yang merusak kecerdasan dan keandalan alat-alat AI, menurut para ahli yang saya ajak bicara.

Harrison Chase, pendiri bersama dan CEO LangChain, perusahaan lain yang telah mengembangkan metode untuk meningkatkan memori dalam agen AI, mengatakan ia melihat memori sebagai bagian vital dari rekayasa konteks—di mana pengguna atau insinyur memutuskan informasi apa yang akan dimasukkan ke dalam jendela konteks. LangChain menawarkan perusahaan beberapa jenis penyimpanan memori yang berbeda untuk agen, dari fakta jangka panjang tentang pengguna hingga kenangan pengalaman terbaru. “Memori, saya berpendapat, adalah suatu bentuk konteks,” kata Chase. “Sebagian besar pekerjaan insinyur AI pada dasarnya adalah memberikan model konteks [informasi] yang tepat.”

Alat AI konsumen juga secara bertahap menjadi tidak mudah lupa. Februari lalu, OpenAI mengumumkan bahwa ChatGPT akan menyimpan informasi relevan untuk memberikan pengalaman yang lebih dipersonalisasi bagi pengguna—meskipun perusahaan tidak mengungkapkan cara kerjanya.

Letta dan LangChain membuat proses mengingat lebih transparan bagi insinyur yang membangun sistem AI.

“Saya pikir ini sangat penting tidak hanya bagi model untuk terbuka tetapi juga bagi sistem memori untuk terbuka,” kata Clem Delangue, CEO platform hosting AI Hugging Face dan seorang investor di Letta.

MEMBACA  Microsoft Menggunakan Kecerdasan Buatan Generatif untuk Mata-mata AS

Yang menarik, CEO Letta Packer mengisyaratkan bahwa mungkin juga penting bagi model AI untuk belajar tentang apa yang harus dilupakan. “Jika pengguna berkata, ‘proyek itu yang sedang kami kerjakan, hapus dari ingatanmu’ maka agen harus dapat kembali dan secara retroaktif menulis ulang setiap memori.”

Gagasan tentang memori dan mimpi buatan membuat saya berpikir tentang Do Androids Dream of Electric Sheep? oleh Philip K. Dick, sebuah novel yang memikat dan menginspirasi film distopia yang stylish Blade Runner. Model bahasa besar belum sehebat replikan pemberontak dalam cerita, tetapi ingatan mereka, tampaknya, dapat sama rapuhnya.


Ini adalah edisi dari buletin AI Lab Will Knight. Baca buletin sebelumnya di sini.

Ya, pasti. Berikut teksnya:

Bagi banyak orang, konsep “rumah” tidak melulu tentang bangunan fisik, tetapi lebih kepada perasaan aman dan dimiliki. Ini adalah tempat di mana kita bisa menjadi diri kita sendiri tanpa rasa takut dihakimi. Baik itu apartemen kecil di kota atau rumah besar di pedesaan, esensinya tetaplah sama: sebuah tempat untuk pulang.