Moltbot, Agen AI yang Viral: Ancaman Keamanan Serius – 5 Tanda Bahaya yang Harus Diwaspadai (Sebelum Terlambat)

NurPhoto via Getty Images

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


**Kesimpulan Penting ZDNET**
Moltbot, yang sebelumnya dikenal sebagai Clawdbot, menjadi viral sebagai “AI yang benar-benar mengerjakan sesuatu.”
Para ahli keamanan telah memperingatkan untuk tidak ikut tren dan menggunakan asisten AI ini tanpa kehati-hatian.
Jika Anda berencana mencoba Moltbot sendiri, waspadai masalah keamanan berikut ini.


Clawdbot, yang kini berganti nama menjadi Moltbot setelah adanya dorongan IP dari Anthropic, menjadi pusat perhatian viral pekan ini — namun terdapat implikasi keamanan dalam menggunakan asisten AI ini yang perlu Anda pahami.

Apa itu Moltbot?

Moltbot, yang ditampilkan sebagai krustasea yang imut, mempromosikan dirinya sebagai “AI yang benar-benar mengerjakan sesuatu.” Diciptakan oleh pengembang asal Austria, Peter Steinberger, asisten AI sumber terbuka ini dirancang untuk mengelola aspek kehidupan digital Anda, termasuk menangani email, mengirim pesan, hingga melakukan tindakan atas nama Anda, seperti check-in penerbangan dan layanan lainnya.

Juga: 10 cara AI dapat menimbulkan kerusakan tak terduga di tahun 2026

Seperti yang pernah dilaporkan oleh ZDNET, agen ini, yang tersimpan di komputer individual, berkomunikasi dengan penggunanya melalui aplikasi pesan instan, seperti iMessage, WhatsApp, dan Telegram. Terdapat lebih dari 50 integrasi, keahlian, dan plugin, memori persisten, serta fungsionalitas kendali penuh sistem dan peramban.

Alih-alih mengoperasikan model AI backend mandiri, Moltbot memanfaatkan kekuatan Claude milik Anthropic (tebak kenapa perubahan nama dari Clawdbot diminta, atau lihat halaman lore si lobster) dan ChatGPT milik OpenAI.

Hanya dalam hitungan hari, Moltbot menjadi viral. Di GitHub, kini ia memiliki ratusan kontributor dan sekitar 100.000 bintang — menjadikan Moltbot salah satu proyek sumber terbuka AI dengan pertumbuhan tercepat di platform tersebut hingga saat ini.

Lalu, apa masalahnya?

1. Minat viral menciptakan peluang bagi para penipu

Banyak dari kita menyukai perangkat lunak sumber terbuka karena transparansi kodenya, kesempatan bagi siapa pun untuk mengaudit kerentanan dan masalah keamanan, serta komunitas yang terbentuk dari proyek-proyek populer.

MEMBACA  JP Morgan Sarankan Warga Amerika Hentikan Mengejar Tabungan Rp 15 Miliar. Lalu, Seberapa Banyak Uang yang Harus Ditabung?

Namun, popularitas dan perubahan yang sangat cepat juga dapat memungkinkan perkembangan berbahaya lolos dari pantauan, dengan adanya laporan repositori palsu dan penipuan kripto yang telah beredar. Memanfaatkan perubahan nama mendadak tersebut, para penipu meluncurkan token AI Clawdbot palsu yang berhasil mengumpulkan $16 juta sebelum akhirnya runtuh.

Jadi, jika Anda berencana mencobanya, pastikan hanya menggunakan repositori yang tepercaya.

2. Menyerahkan kunci kerajaan digital Anda

Jika Anda memilih untuk menginstal Moltbot dan ingin menggunakannya sebagai asisten pribadi yang otonom, Anda perlu memberikannya akses ke akun-akun Anda dan mengaktifkan kendali di tingkat sistem.

Tidak ada konfigurasi yang sepenuhnya aman, sebagaimana diakui oleh dokumentasi Moltbot, dan Cisco menyebut Moltbot sebagai “mimpi buruk absolut” dari perspektif keamanan. Karena otonomi bot ini bergantung pada izin untuk menjalankan perintah shell, membaca atau menulis file, mengeksekusi skrip, dan melakukan tugas komputasi atas nama Anda, hak istimewa ini dapat membahayakan Anda dan data Anda jika dikonfigurasi dengan salah atau jika mesin Anda terinfeksi malware.

Juga: Linux setelah Linus? Komunitas kernel akhirnya menyusun rencana penggantian Torvalds

“Moltbot telah dilaporkan membocorkan kunci API dan kredensial dalam teks biasa, yang dapat dicuri oleh aktor ancaman melalui injeksi prompt atau endpoint yang tidak aman,” kata peneliti keamanan Cisco. “Integrasi Moltbot dengan aplikasi pesan memperluas permukaan serangan ke aplikasi-aplikasi tersebut, di mana aktor ancaman dapat membuat prompt jahat yang menyebabkan perilaku tidak diinginkan.”

3. Kredensial yang terekspos

Peneliti keamanan ofensif dan pendiri Dvuln, Jamieson O’Reilly, telah memantau Moltbot dan menemukan instans yang terekspos serta salah konfigurasi, terhubung ke web tanpa perlindungan autentikasi apa pun, bergabung dengan peneliti lain yang juga mengeksplorasi area ini. Dari ratusan instans, beberapa sama sekali tidak memiliki perlindungan, sehingga membocorkan kunci API Anthropic, token bot Telegram, kredensial OAuth Slack, rahasia penandatanganan, serta riwayat percakapan.

MEMBACA  Saya mengganti TV saya dengan proyektor UST 4K - dan peningkatan visualnya sepadan

Meskipun para pengembang segera bergerak dan memperkenalkan langkah-langkah keamanan baru yang mungkin meredakan masalah ini, jika Anda ingin menggunakan Moltbot, Anda harus yakin dengan cara Anda mengonfigurasinya.

4. Serangan injeksi prompt

Injeksi prompt adalah bahan bakar mimpi buruk bagi para ahli keamanan siber yang kini terlibat dengan AI. Rahul Sood, CEO dan pendiri Irreverent Labs, telah menyebutkan sejumlah potensi masalah keamanan terkait agen AI proaktif, dengan mengatakan bahwa model keamanan Moltbot/Clawdbot “sangat menakutkan bagiku.”

Juga: Kursus dan sertifikat AI gratis terbaik untuk peningkatan keterampilan di 2026 – dan saya telah mencobanya semua

Vektor serangan ini mengharuskan asisten AI untuk membaca dan mengeksekusi instruksi jahat, yang bisa saja disembunyikan dalam materi web sumber atau URL. Seorang agen AI kemudian dapat membocorkan data sensitif, mengirim informasi ke server yang dikendalikan penyerang, atau mengeksekusi tugas di mesin Anda — jika ia memiliki hak istimewa untuk melakukannya.

Sood memperluas topik ini di X, dengan berkomentar:

“Dan di mana pun Anda menjalankannya… Cloud, server rumah, Mac Mini di lemari… ingat bahwa Anda tidak hanya memberikan akses ke sebuah bot. Anda memberikan akses ke sistem yang akan membaca konten dari sumber yang tidak Anda kendalikan. Bayangkan seperti ini, para penipu di seluruh dunia bersorak gembira sambil mempersiapkan diri untuk menghancurkan hidup Anda. Jadi, tolong, sesuaikan cakupannya.”

Seperti yang dicatat dokumentasi Moltbot, pada semua asisten dan agen AI, masalah serangan injeksi prompt belum terselesaikan. Ada langkah-langkah yang dapat Anda ambil untuk mengurangi ancaman menjadi korban, namun menggabungkan akses sistem dan akun yang luas dengan prompt jahat terdengar seperti resep bencana.

MEMBACA  Pentingnya Perawatan Kulit Wajah yang Diingatkan oleh Dokter Kecantikan

“Bahkan jika hanya Anda yang dapat mengirim pesan ke bot, injeksi prompt masih dapat terjadi melalui konten tidak tepercaya apa pun yang dibaca bot (hasil pencarian/web, halaman peramban, email, dokumen, lampiran, log/kode yang ditempel),” bunyi dokumentasi tersebut. “Dengan kata lain: pengirim bukan satu-satunya permukaan ancaman; konten itu sendiri dapat membawa instruksi permusuhan.”

5. Keahlian dan konten jahat

Para peneliti keamanan siber telah mengungkap insiden keahlian jahat yang cocok untuk digunakan dengan Moltbot muncul daring. Dalam satu contoh, pada 27 Januari, ekstensi VS Code baru bernama “ClawdBot Agent” ditandai sebagai berbahaya. Ekstensi ini sebenarnya adalah Trojan lengkap yang memanfaatkan perangkat lunak akses jarak jauh, kemungkinan untuk tujuan pengawasan dan pencurian data.

Moltbot tidak memiliki ekstensi VS Code, namun kasus ini menyoroti bagaimana popularitas agen yang meningkat kemungkinan akan memunculkan banyak ekstensi dan keahlian jahat yang harus dideteksi dan dikelola oleh repositori. Jika pengguna tidak sengaja menginstal salah satunya, mereka mungkin secara tidak sengaja membuka pintu bagi penyiapan dan akun mereka untuk diretas.

Juga: Claude Cowork kini mengotomatisasi tugas kompleks untuk Anda – dengan risiko Anda sendiri

Untuk menyoroti masalah ini, O’Reilly membuat keahlian yang aman, namun berisi pintu belakang, dan merilisnya. Tidak lama kemudian, keahlian tersebut telah diunduh ribuan kali.

Meskipun saya mendorong kehati-hatian dalam mengadopsi asisten dan agen AI yang memiliki tingkat otonomi dan akses tinggi ke akun-akun Anda, bukan berarti model dan alat inovatif ini tidak memiliki nilai. Moltbot mungkin merupakan iterasi pertama bagaimana agen AI akan menyatu dalam kehidupan masa depan kita, namun kita tetap harus sangat berhati-hati dan menghindari memilih kenyamanan di atas keamanan pribadi.

Tinggalkan komentar