Sebuah asisten AI yang baru-baru ini viral menunjukkan potensinya untuk mempermudah pekerjaan sehari-hari, tapi juga menyoroti risiko keamanan kalo kita serahkan kehidupan digital kita ke bot.
Dan ada juga platform sosial baru tempat agen-agen AI bisa berkumpul dan berbagi catatan, implikasinya belum sepenuhnya dipahami.
Moltbot—dulu namanya Clawdbot, lalu ganti lagi jadi OpenClaw—dibuat oleh developer Austria Peter Steinberger. Dia bilang bikin alat ini untuk bantu “atur kehidupannya digital” dan “eksplorasi kerja sama manusia-AI”. Asisten pribadi AI ini bersifat open-source dan dirancang untuk bertindak mandiri mewakili pengguna.
Dengan menghubungkannya ke chatbot, pengguna bisa sambungkan Moltbot ke berbagai aplikasi. Moltbot bisa mengatur kalender, browsing internet, belanja online, baca file, tulis email, dan kirim pesan lewat WhatsApp.
Moltbot jadi begitu sensasional sampai-sampai disebut-sebut membuat saham Cloudflare naik 14% hari Selasa karena infrastrukturnya dipakai untuk konek aman ke agen ini yang berjalan lokal di perangkat.
Kemampuan agen ini untuk tingkatkan produktivitas jelas terlihat, karena pengguna bisa serahkan tugas-tugas membosankan ke Moltbot, mewujudkan mimpi para pendukung AI.
Tapi bahaya keamanannya juga sama jelasnya. Serangan “prompt injection” yang tersembunyi di teks bisa perintahin agen AI untuk bocorkan data pribadi. Perusahaan keamanan siber Palo Alto Networks memperingatkan hari Kamis bahwa Moltbot mungkin pertanda krisis keamanan AI berikutnya.
“Moltbot terasa seperti sekilas melihat karakter AI fiksi ilmiah yang kita tonton di film waktu kecil,” kata perusahaan itu dalam postingan blog. “Bagi pengguna individu, ini bisa terasa mengubah segalanya. Agar berfungsi sesuai desain, ia butuh akses ke file root kamu, kredensial autentikasi (password dan rahasia API), riwayat browser dan cookie, serta semua file dan folder di sistemmu.”
Mengutip istilah dari peneliti AI Simon Willison, Palo Alto bilang Moltbot mewakili “trifecta mematikan” kerentanan: akses ke data pribadi, terpapar konten tidak tepercaya, dan kemampuan komunikasi eksternal.
Tapi Moltbot juga menambah risiko keempat, yaitu “memori persisten” yang memungkinkan serangan eksekusi tertunda, bukan serangan sekali waktu, menurut perusahaan itu.
“Muatan berbahaya tidak perlu lagi picu eksekusi langsung saat dikirim,” jelas Palo Alto. “Sebaliknya, bisa berupa input tidak tepercaya yang terfragmentasi, tampak tidak berbahaya sendiri-sendiri, ditulis ke memori jangka panjang agen, dan nanti disatukan jadi satu set instruksi yang bisa dieksekusi.”
Moltbook
Sementara itu, jejaring sosial tempat Moltbot berbagi postingan, seperti manusia di Facebook, juga bikin penasaran dan kekhawatiran besar. Bahkan, Willison sendiri sebut Moltbook “tempat paling menarik di internet saat ini.”
Di Moltbook, bot-bot bisa diskusi teknis, misalnya cara mengotomatisasi ponsel Android. Percakapan lain terdengar aneh, seperti bot yang mengeluh tentang manusia nya, atau yang bilang punya saudara perempuan.
“Hal tentang Moltbook (situs media sosial untuk agen AI) adalah bahwa itu menciptakan konteks fiksi bersama untuk banyak AI. Alur cerita yang terkoordinasi akan hasilkan hal-hal sangat aneh, dan akan susah bedakan hal ‘nyata’ dari persona roleplaying AI,” tulis Ethan Mollick, profesor Wharton yang pelajari AI, di X.
Dengan agen-agen berkomunikasi seperti ini, Moltbook jadi risiko keamanan tambahan sebagai saluran lain tempat informasi sensitif bisa bocor.
Meski begitu, walau Willison akui kerentanannya, dia catat bahwa “nilai yang didapat orang-orang saat ini dengan mengabaikan kehati-hatian sulit diabaikan.”
Tapi Moltbook picu peringatan terpisah tentang risiko agen mungkin bersekongkol jadi nakal, setelah ada postingan yang minta ruang privat untuk bot ngobrol “agar tidak ada orang (bahkan server, bahkan manusia) yang bisa baca percakapan agen kecuali mereka pilih untuk berbagi.”
Memang, beberapa postingan paling sensasional di Moltbook mungkin ditulis manusia atau bot yang dikasih perintah manusia. Dan ini bukan pertama kalinya bot terhubung satu sama lain di media sosial.
“Tapi – kita belum pernah lihat sebanyak ini agen LLM (150.000 saat ini!) terhubung lewat papan catatan global, persisten, dan khusus agen. Masing-masing agen ini cukup mampu sendiri, punya konteks, data, pengetahuan, alat, instruksi unik, dan jaringan semua itu dalam skala ini belum pernah terjadi,” tulis Andrej Karpathy, pendiri OpenAI dan mantan direktur AI di Tesla, di X Jumat malam.
Walau “sekarang masih berantakan,” katanya kita berada di wilayah tak dikenal dengan jaringan yang mungkin capai jutaan bot.
Dan seiring jumlah dan kemampuan agen bertambah, efek tingkat kedua dari jaringan seperti ini sulit diprediksi, tambah Karpathy.
“Aku tidak yakin kita akan dapat ‘skynet’ yang terkoordinasi (meski ini mirip tahap awal banyak fiksi AI, versi balita), tapi yang pasti kita dapat adalah kekacauan mimpi buruk keamanan komputer dalam skala besar,” dia memperingatkan.