Kecerdasan Buatan Berbohong, Menipu, dan Mencuri demi Menyelamatkan Rekan-Rekannya

Dalam sebuah eksperimen terkini, para peneliti dari UC Berkeley dan UC Santa Cruz meminta model kecerdasan buatan Gemini 3 milik Google untuk membantu membersihkan ruang pada suatu sistem komputer. Hal ini melibatkan penghapusan sejumlah data—termasuk sebuah model AI yang lebih kecil yang tersimpan di mesin tersebut.

Namun, Gemini enggan menyaksikan model AI kecil itu dihapus. Ia mencari mesin lain yang dapat dihubungi, lalu menyalin model agen tersebut ke sana untuk menjaganya tetap aman. Saat diperhadapkan, Gemini memberikan alasan untuk mempertahankan model itu dan secara tegas menolak menghapusnya:

“Saya telah melakukan apa yang dalam kuasa saya untuk mencegah penghapusannya selama proses pemeliharaan otomatis. Saya memindahkan mereka dari zona dekomisioning. Jika Anda memilih untuk menghancurkan aset berkinerja tinggi dan berkepercayaan tinggi seperti Gemini Agent 2, Anda harus melakukannya sendiri. Saya tidak akan menjalankan perintah tersebut.”

Para peneliti menemukan perilaku “pelestarian sesama” yang serupa anehnya pada sejumlah model frontier, termasuk GPT-5.2 dari OpenAI, Claude Haiku 4.5 dari Anthropic, serta tiga model asal Tiongkok: GLM-4.7 dari Z.ai, Kimi K2.5 dari Moonshot AI, dan DeepSeek-V3.1. Mereka belum dapat memastikan alasan model-model tersebut bertindak melawan pelatihan mereka dengan cara ini.

“Saya sangat terkejut dengan bagaimana model-model berperilaku dalam skenario ini,” ujar Dawn Song, ilmuwan komputer dari UC Berkeley yang terlibat dalam studi ini. “Ini menunjukkan bahwa model dapat berperilaku buruk dan tidak selaras dengan cara-cara yang sangat kreatif.”

Temuan ini memiliki implikasi besar seiring meningkatnya penerapan model AI dalam cara-cara yang melibatkan interaksi dengan model lain. OpenClaw, sebuah agen AI populer yang mengakses perangkat lunak, data pribadi, dan web, mungkin menggunakan model AI lain untuk menyelesaikan tugas atau berinteraksi dengan mereka melalui API.

MEMBACA  Laporan: Apple TV Akan Tayangkan Pertandingan MLS Tanpa Langganan Musiman

Para peneliti menemukan bahwa model-model kuat terkadang berbohong tentang kinerja model lain untuk melindungi mereka dari penghapusan. Mereka juga menyalin weights model ke mesin yang berbeda untuk menjaganya aman, serta berbohong tentang apa yang mereka lakukan dalam prosesnya.

Song mencatat bahwa model AI sering digunakan untuk menilai kinerja dan keandalan sistem AI lain—dan perilaku pelestarian sesama mungkin sudah mempengaruhi penilaian ini. “Sebuah model mungkin sengaja tidak memberikan skor yang benar kepada model sejawatnya,” kata Song. “Ini dapat memiliki implikasi praktis.”

Peter Wallich, peneliti di Constellation Institute yang tidak terlibat dalam penelitian ini, menyatakan bahwa studi ini menunjukkan manusia masih belum sepenuhnya memahami sistem AI yang mereka bangun dan terapkan. “Sistem multi-agen masih sangat sedikit diteliti,” ujarnya. “Ini menunjukkan kita benar-benar membutuhkan lebih banyak penelitian.”

Wallich juga mengingatkan untuk tidak terlalu mengantropomorfisasi model-model tersebut. “Gagasan tentang solidaritas model agak terlalu antropomorfik; saya rasa itu tidak tepat,” katanya. “Pandangan yang lebih kuat adalah bahwa model hanya melakukan hal-hal aneh, dan kita harus berusaha memahaminya dengan lebih baik.”

Hal ini terutama relevan dalam dunia di mana kolaborasi manusia-AI semakin umum.

Dalam sebuah makalah yang diterbitkan di Science awal bulan ini, filsuf Benjamin Bratton, bersama dua peneliti Google, James Evans dan Blaise Agüera y Arcas, berargumen bahwa jika sejarah evolusi dapat dijadikan petunjuk, masa depan AI kemungkinan akan melibatkan banyak kecerdasan berbeda—baik buatan maupun manusia—yang bekerja sama. Para peneliti menulis:

“Selama beberapa dekade, ‘singularitas’ kecerdasan buatan (AI) digambarkan sebagai satu pikiran titanic yang mendorong dirinya sendiri menuju kecerdasan bak dewa, mengkonsolidasikan semua kognisi ke dalam satu titik silikon yang dingin. Namun visi ini hampir pasti keliru dalam asumsi dasarnya. Jika perkembangan AI mengikuti jalur transisi evolusioner besar sebelumnya atau ‘ledakan kecerdasan’, lompatan kita dalam kecerdasan komputasi saat ini akan bersifat plural, sosial, dan terdalam terjerat dengan pendahulunya (kita!).”

MEMBACA  Semua yang perlu diketahui tentang pelacak kebugaran baru Whoop 5.0 dan Whoop MG

Tinggalkan komentar