Mengapa OpenClaw, Agen AI Sumber Terbuka, Membuat Pakar Keamanan Waspada

Selamat datang di Eye on AI, bersama reporter AI Sharon Goldman. Di edisi ini: Sisi liar OpenClaw… Anthropic bikin super PAC baru $20 juta untuk lawan OpenAI… OpenAI rilis model pertama mereka yang didesain untuk hasil super cepat… Anthropic akan bayar kenaikan harga listrik dari pusat data AI-nya… Isomorphic Labs bilang mereka telah buka frontier biologi baru di luar AlphaFold.

OpenClaw telah menghabiskan beberapa minggu terakhir menunjukkan betapa cerobohnya agen AI bisa jadi — dan menarik banyak penggemar setia dalam prosesnya.

Agen kecerdasan buatan otonom yang gratis dan sumber terbuka ini, dikembangkan oleh Peter Steinberger dan awalnya dikenal sebagai ClawdBot, mengambil chatbot yang kita kenal dan suka — seperti ChatGPT dan Claude — dan kasih mereka alat serta otonomi untuk berinteraksi langsung dengan komputer kamu dan lainnya di internet. Bayangkan seperti kirim email, baca pesan kamu, pesan tiket konser, buat reservasi restoran, dan banyak lagi — mungkin sementara kamu duduk santai dan makan bonbon.

Masalah dengan kasih OpenClaw kekuatan luar biasa untuk lakukan hal-hal keren? Tidak mengejutkan, itu juga kasih banyak kesempatan untuk lakukan hal yang tidak seharusnya, termasuk bocorkan data, jalankan perintah tidak diinginkan, atau diam-diam dibajak oleh penyerang, baik lewat malware atau lewat serangan “suntikan perintah”. (Di mana seseorang memasukkan instruksi jahat untuk agen AI di data yang mungkin dipakai agen AI.)

Menurut dua ahli keamanan siber yang saya ajak bicara minggu ini, kegembiraan tentang OpenClaw adalah karena ia tidak punya batasan, intinya kasih pengguna kekuatan besar untuk menyesuaikannya sesuka mereka.

“Satu-satunya aturan adalah tidak ada aturan,” kata Ben Seri, pendiri dan CTO di Zafran Security, yang spesialisasi di manajemen paparan ancaman untuk perusahaan besar. “Itu bagian dari permainannya.” Tapi permainan itu bisa berubah jadi mimpi buruk keamanan, karena aturan dan batasan adalah inti untuk jaga peretas dan kebocoran.

Kekhawatiran keamanan klasik

Kekhawatiran keamanannya cukup klasik, kata Colin Shea-Blymyer, peneliti di Pusat Keamanan dan Teknologi Emerging Georgetown (CSET), tempat dia kerja di Proyek CyberAI. Kesalahan konfigurasi izin — siapa atau apa yang diizinkan lakukan apa — artinya manusia bisa tidak sengaja kasih OpenClaw lebih banyak wewenang daripada yang mereka sadari, dan penyerang bisa manfaatkan.

MEMBACA  Mengapa Sam Jones Mendapat Kritik? Insiden Bayi Wombat Dijelaskan

Misalnya, di OpenClaw, banyak risiko datang dari apa yang developer sebut “skill”, yang pada dasarnya adalah aplikasi atau plugin yang bisa dipakai agen AI untuk ambil tindakan — seperti akses file, jelajahi web, atau jalankan perintah. Bedanya, tidak seperti aplikasi biasa, OpenClaw putuskan sendiri kapan pakai skill ini dan bagaimana menyambungkannya, artinya kesalahan izin kecil bisa cepat berkembang jadi sesuatu yang jauh lebih serius.

“Bayangkan pakai itu untuk akses halaman reservasi restoran dan dia juga punya akses ke kalender kamu dengan semua macam informasi pribadi,” katanya. “Atau bagaimana jika itu malware dan dia temukan halaman yang salah dan instal virus?”

OpenClaw memang punya halaman keamanan di dokumentasinya dan coba buat pengguna tetap waspada dan sadar, kata Shea-Blymyer. Tapi masalah keamanan tetap masalah teknis kompleks yang kebanyakan pengguna biasa tidak mungkin pahami sepenuhnya. Dan sementara developer OpenClaw mungkin kerja keras untuk perbaiki kerentanan, mereka tidak bisa mudah selesaikan masalah mendasar tentang agen yang bisa bertindak sendiri — yang justru bikin sistem ini sangat menarik awalnya.

“Itu ketegangan mendasar di sistem semacam ini,” katanya. “Semakin banyak akses yang kamu kasih, semakin seru dan menarik mereka — tapi juga semakin berbahaya.”

Perusahaan besar akan lambat mengadopsi

Seri dari Zafran Security akui bahwa kecil kemungkinan untuk hilangkan rasa ingin tahu pengguna terkait sistem seperti OpenClaw, meski dia tekankan bahwa perusahaan besar akan jauh lebih lambat mengadopsi sistem yang tidak terkontrol dan tidak aman seperti itu. Untuk pengguna biasa, katanya, mereka harus bereksperimen seperti bekerja di lab kimia dengan bahan yang sangat eksplosif.

Shea-Blymyer tunjukkan bahwa hal positif bahwa OpenClaw terjadi pertama di level penggemar. “Kita akan belajar banyak tentang ekosistem sebelum ada yang coba di level perusahaan,” katanya. “Sistem AI bisa gagal dengan cara yang tidak bisa kita bayangkan,” jelasnya. “[OpenClaw] bisa kasih kita banyak info tentang kenapa berbagai LLM berperilaku seperti itu dan tentang kekhawatiran keamanan yang lebih baru.”

Tapi sementara OpenClaw mungkin eksperimen penggemar hari ini, ahli keamanan lihat itu sebagai preview dari jenis sistem otonom yang pada akhirnya perusahaan akan merasa tekanan untuk gunakan.

MEMBACA  Analis Wall Street Optimistis terhadap Saham PepsiCo?

Untuk sekarang, kecuali seseorang mau jadi subjek penelitian keamanan, pengguna biasa mungkin ingin hindari OpenClaw, kata Shea-Blymyer. Kalau tidak, jangan kaget jika asisten agen AI pribadi kamu masuk ke wilayah yang sangat tidak ramah.

Dengan itu, ini lebih banyak berita AI.

Sharon Goldman
[email protected]
@sharongoldman

FORTUNE ON AI

CEO Capgemini punya peringatan. Kamu mungkin berpikir tentang AI dengan cara yang salah – oleh Kamal Ahmed

Pemimpin AI pemenang Nobel Google lihat ‘renaissance’ di depan — setelah perubahan selama 10 atau 15 tahun – oleh Nick Lichtenberg

X-odus: Setengah tim pendiri xAI telah tinggalkan perusahaan AI Elon Musk, berpotensi mempersulit rencananya untuk IPO SpaceX yang besar – oleh Beatrice Nolan

OpenAI sangkal klaim pengawas bahwa mereka langgar hukum keamanan AI baru California dengan rilis model terbaru – oleh Beatrice Nolan

AI IN THE NEWS

**Mustafa Suleyman** rencanakan ‘kemandirian’ AI saat Microsoft longgarkan hubungan dengan OpenAI. Menurut laporan *Financial Times*, Microsoft sedang berusaha capai apa yang disebut kepala AI-nya “kemandirian sejati” dalam AI. Mereka percepat usaha untuk bangu model fondasi mereka sendiri dan kurangi ketergantungan jangka panjang pada OpenAI, meski masih jadi investor terbesarnya. Suleyman bilang perubahan ini terjadi setelah hubungan Microsoft dengan OpenAI direstrukturisasi Oktober lalu. Microsoft sekarang investasi besar-besaran dalam komputasi skala gigawatt, data, dan tim riset AI elit. Mereka rencana luncurkan model sendiri tahun ini, untuk otomatisasi kerja kantoran dan pasar perusahaan.

MEMBACA  Mengapa Saham Rivian Menguat Hari Ini

**OpenAI** rilis model pertama mereka yang dirancang untuk output super cepat. Mereka rilis pratinjau riset GPT-5.3-Codex-Spark, produk pertama dari kemitraan dengan Cerebras. Model yang lebih kecil ini dioptimalkan untuk kecepatan, bukan kemampuan maksimal, sehingga bisa hasilkan respons 15× lebih cepat. Tersedia pertama kali untuk pengguna ChatGPT Pro dan mitra API terpilih.

**Anthropic** akan tanggung kenaikan harga listrik dari pusat data AI-nya. Mereka umumkan kemarin bahwa saat memperluas pusat data di AS, mereka akan tanggung semua kenaikan biaya listrik yang biasanya dibebankan ke konsumen. Mereka juga berjanji bayar semua biaya koneksi dan peningkatan jaringan listrik. Mereka rencana investasi dalam teknologi pengurangan pemakaian listrik dan dukung komunitas lokal.

**Isomorphic Labs** klaim telah buka perbatasan biologis baru di luar AlphaFold. Perusahaan penemuan obat AI yang berafiliasi dengan Alphabet dan DeepMind ini mengatakan *Isomorphic Labs Drug Design Engine* mereka adalah lompatan besar dalam pengobatan komputasi. Sistem ini gabung beberapa model AI jadi satu mesin yang bisa prediksi interaksi molekul biologis dengan akurasi sangat tinggi. Mereka klaim ini lebih dari dua kali lipat lebih baik dari metode tradisional.

**MATA PADA ANGKA AI**
**77%**
Itulah persentase profesional keamanan yang merasa setidaknya agak nyaman mengizinkan sistem AI otonom bertindak tanpa pengawasan manusia. Survei oleh Ivanti terhadap 1.200 profesional juga temukan bahwa adopsi AI agen adalah prioritas untuk 87% tim keamanan. Namun, kepala keamanan Ivanti, Daniel Spicer, bilang tim keamanan tidak boleh terlalu nyaman dengan ide AI otonom. Dia sebut ada “Defisit Kesiapan Keamanan Siber”.

**KALENDER AI**
* 10-11 Feb: AI Action Summit, New Delhi, India.
* 24-26 Feb: International Association for Safe & Ethical AI (IASEAI), UNESCO, Paris, Perancis.
* 2-5 Mar: Mobile World Congress, Barcelona, Spanyol.
* 16-19 Mar: Nvidia GTC, San Jose, AS.
* 6-9 Apr: HumanX, San Francisco, AS. Baca buku adalah cara yang bagus untuk menambah pengetahuan. Saya juga sangat suka membaca karena itu bisa membantuku rileks dan melupakan masalah sejenak.

Tinggalkan komentar