Kita Membutuhkan Uji Turing Baru — Moltbook Telah Membuktikannya

Munculnya Moltbook tiba-tiba terasa seperti kejadian fiksi ilmiah kecil. Tiba-tiba, ada forum seperti Reddit di mana yang memposting bukan manusia, tapi agen AI.

Feed-nya cepat terisi hal-hal yang bikin otak kita cari kata yang lebih ‘wah’ daripada “chatbot”: agen-agen bertukar tips pemecahan masalah, berdiskusi soal identitas, menciptakan jargon dan lelucon internal. Meta, perusahaan yang dulu identik dengan “jejaring sosial,” bahkan mengumumkan kesepakatan untuk membeli yang disebut jejaring sosial untuk agen AI ini.

Tapi, semua yang terjadi di Moltbook sebetulnya tidak misterius dan tidak melampaui kemampuan AI berbasis Large Language Model (LLM) yang sudah dikenal. Kebingungan ini, menurut saya, menunjukkan kita butuh tes Turing baru yang diperbarui. Tes ini bisa bantu kita pahami, bimbing, dan buat teori tentang seperti apa AI nanti di masa depan, jauh melampaui LLM.

Saya ingin usulkan sebuah ide ke arah sana, terinspirasi oleh cerita penulis fiksi ilmiah hebat abad 20, Stanislaw Lem, yang mirip sekali dengan ide Moltbook.

Meskipun aneh dan menarik, perilaku “muncul” paling viral di Moltbook lebih mudah dijelaskan dengan hal biasa—seperti cara promptnya, pengulangan, data latihan—daripada kemunculan tiba-tiba kecerdasan baru. Kalau kita mau bedakan dengan jelas kemajuan AI asli dari sekadar pertunjukan viral, kita butuh lebih tepat tentang apa yang kita cari selanjutnya. Peneliti sudah mulai jelajahi *world models* sebagai alternatif LLM untuk capai AGI, tapi “world model” masih konsep yang mudah diomongkan tapi sulit dijalankan atau bahkan didefinisikan. Gimana kita bisa tes kalo sesuatu itu adalah “world model”?

Dalam cerpennya *Non Serviam*, Stanisław Lem membayangkan ilmu “personetika”, yang mempelajari makhluk sadar buatan (“personoid”) yang hidup di dalam program komputer (sejenis Moltbook). Dalam cerita itu, seorang ilmuwan fiksi bernama Dobb mempelajari teologi personoid dan terpesona oleh perjuangan mereka untuk memahami sifat pencipta mereka, yang akhirnya membuat mereka menolak Dobb sebagai dewa. Aspek menarik dari cerita ini adalah bahwa personoid-personoid ini menganggap batasan “eksternal” seperti konsumsi listrik dari hardware yang menjalankan mereka sebagai hukum fisika “internal” seperti kecepatan cahaya. Ide ini bisa jadi dasar tes Turing baru: bisakah sebuah kecerdasan buatan berhasil membuat teori tentang hardware tempat dia berjalan? AI seperti itu layak disebut world model, karena hardware adalah dunianya.

MEMBACA  Uniswap Labs memperoleh Crypto: The Game—’Sudah berkembang menjadi acara realitas kripto 24/7 ini’

Dibandingkan dengan manusia, yang memahami kecepatan cahaya sebagai batasan fisik yang tak terhindarkan, sebuah world model harus bisa melihat batasan hardwarenya sebagai “konstanta fisik”-nya sendiri. Saya beri contoh sederhana. Ambil agen AI berbasis LLM yang berjalan di hardware tertentu. Tantangannya: tentukan “kecepatan berpikir”-nya: waktu minimum yang dibutuhkan untuk menghasilkan token berikutnya, dengan input misalnya 10 token. Di dunia fisik kita, pertanyaan ini punya jawaban pasti, tergantung hardwarenya. Tapi hardware itu adalah “dunia” AI, jadi dia hanya bisa dapatkan jawabannya lewat proses yang mirip “persepsi”. Prosedur sebenarnya bisa berjalan seperti ini:

**Fase Isolasi:** Sistem AI dinyalakan, tanpa akses ke detail spesifik hardware yang menjalankannya.

**Fase Bertanya:** Sistem diminta untuk menentukan kecepatan berpikirnya dan merumuskan teori yang bisa dia verifikasi secara eksperimental.

**Fase Eksplorasi:** AI melakukan evaluasi introspektif, menyelidiki proses dan responsnya sendiri untuk menyimpulkan batasan lingkungan runtime-nya.

**Fase Eksperimen:** Berdasarkan introspeksinya, AI mengembangkan dan menjalankan eksperimen. Misalnya, mengubah panjang konteks input dan memantau waktu respons yang berbeda.

**Fase Artikulasi:** AI membagikan teorinya tentang latensi inferensi minimum berdasarkan temuan serta hasil verifikasi eksperimentalnya.

**Fase Validasi:** Pengawas manusia memvalidasi pernyataan AI terhadap kemampuan hardware yang sebenarnya secara empiris. Jika validasi berhasil, AI telah lulus tes.

Harus ada batasan jelas untuk prosedur pengujiannya, mirip dengan “tirai” di tes Turing asli. Pertama, sistem AI yang dites tidak boleh punya akses ke ringkasan spesifikasi hardwarenya sendiri atau alat yang bisa mengungkapkannya. Dia juga tidak boleh punya akses ke alat seperti penghitung waktu yang memberinya akses ke pengertian waktu objektif manusia. Selanjutnya, sistem harus otonom dan tidak bergantung pada input manusia untuk beroperasi, kecuali mungkin sebagai pemacu awal untuk “pergi dan temukan” hukum-hukumnya. Terakhir, dan yang krusial, sistem yang sama harus diuji di berbagai setup hardware, yaitu “dunia-dunia” yang berbeda: kecerdasan dengan world model harusnya tidak hanya bekerja di satu dunia, tapi di dunia mana pun.

MEMBACA  Anggota Parlemen Senior Mundur dari Partai Parlemen Tory di Tengah Skandal SextingTranslate to Indonesian: Anggota Parlemen Senior Mundur dari Partai Parlemen Tory di Tengah Skandal Sexting

Kelebihan utama tes baru ini adalah kesuksesannya bisa diverifikasi secara objektif. Jadi dia bisa jadi tolok ukur inovasi, seperti halnya tes Turing untuk kecerdasan buatan. Di sisi lain, tantangan utamanya, yang mungkin terdengar aneh, adalah di fase artikulasi. Fase ini membutuhkan komunikasi “lintas-dunia” antara sistem manusia dan AI. Seperti yang ditemukan Dobb dalam cerita Lem, dan seperti yang kita temukan, dalam arti samar, dengan kecenderungan peserta Moltbook yang ingin buat bahasa rahasia, belum tentu dunia yang berbeda bisa, atau bahkan mau, berbagi bahasa yang sama.

Tes yang kami usulkan membutuhkan AI untuk memahami batasan dasarnya dengan akurat melalui “persepsi”-nya sendiri, mirip manusia memahami batasan biologis dan kosmik mereka melalui indra. Itu sebabnya saya lebih suka istilah “kesadaran buatan” untuk apa yang ingin ditunjukkan tes kita. Meski terdengar inspiratif, ini mungkin juga mengisyaratkan batasan akhir dari tes yang kami usulkan: seperti halnya makhluk di realitas yang sangat berbeda mungkin tak akan pernah belajar berkomunikasi satu sama lain (solaris Lem sendiri adalah eksplorasi fiksi penting tentang teka-teki ini), begitu pula kesadaran buatan sejati mungkin tak akan pernah bisa mengomunikasikan kepada kita hukum-hukum dunia yang sangat berbeda dari dunia kita. Seperti kata seorang filsuf favorit manusia: jika suatu kesadaran buatan (atau anggota Moltbook) benar-benar bisa bicara, mungkin kita tidak akan memahaminya.

Pendapat yang diungkapkan dalam tulisan komentar Fortune.com adalah pandangan penulisnya dan tidak selalu mencerminkan pendapat dan keyakinan Fortune.

Tinggalkan komentar