Waktu insinyur perangkat lunak Sammy Azdoufal duduk untuk mengendalikan robot vacuum DJI Romo barunya dengan controller PlayStation 5, dia tidak menyangka akan secara tidak sengaja mengambil alih jaringan pengawasan global. Dengan pakai asisten koding AI untuk reverse-engineer cara vacuum itu berkomunikasi dengan server DJI, Azdoufal dapat mengambil token keamanan yang seharusnya membuktikan dia pemilik alatnya. Tapi, seperti dilaporkan Popular Science, server backend menganggap dia sebagai pemilik hampir 7,000 robot vacuum yang beroperasi di 24 negara.
Dengan beberapa ketikan, Azdoufal menemukan dia bisa akses *live camera feed*, aktifkan mikrofon, bahkan buat denah 2D rumah pribadi orang asing. Meski dia laporkan *bug* keamanan ini dengan bertanggung jawab (ke The Verge) dan tidak menyalahgunakannya, kerentanan yang mengejutkan ini menunjukkan kenyataan menakutkan: Integrasi sistem otomatis yang cepat dan tanpa kontrol menciptakan celah keamanan besar yang belum pernah ada sebelumnya.
Jutaan orang Amerika semakin banyak memasang perangkat *smart home* di tempat paling pribadi mereka. Sekitar 54 juta rumah tangga di AS punya setidaknya satu perangkat rumah pintar pada tahun 2020, menurut Parks Associates. Selain itu, perusahaan seperti Tesla, Figure, dan 1X berlomba untuk perkenalkan robot otonom humanoid yang canggih, yang bisa tinggal di rumah dan lakukan pekerjaan rumit.
Kemampuan pengawasan perangkat pintar menjadi topik nasional awal tahun ini, saat sebuah perangkat Google Nest menyimpan rekaman di *cloud* tentang kasus penculikan Nancy Guthrie, ibu pembawa acara *Today* Savannah Guthrie. Tak lama kemudian, iklan Super Bowl Amazon untuk produk Ring, yang seharusnya cerita penyelamatan anjing hilang yang lucu, malah menunjukkan kamera *networked* yang bisa memata-matai orang Amerika ada di mana-mana. Reaksi negatif itu sepertinya membuat Amazon hentikan kemitraannya dengan perusahaan pengawasan polisi. Kalau agen AI otonom ditambahkan ke dalam campuran ini, menurut perusahaan keamanan siber Thales, ini adalah skenario mimpi buruk yang sedang berkembang.
Skenario mimpi buruk di depan mata
Menurut Laporan Ancaman Data Thales 2026 yang baru dirilis, 70% organisasi sekarang menyebut AI sebagai risiko keamanan data utama mereka. Dan seperti vacuum DJI yang bergantung pada server *cloud*, perusahaan-perusahaan juga dengan semangat memasukkan AI ke alur kerja mereka, memberikan sistem otomatis akses luas ke data perusahaan yang besar.
Masalah intinya adalah kurangnya visibilitas dan kontrol data dasar yang mengejutkan. Laporan Thales menunjukkan hanya 34% organisasi yang benar-benar tahu di mana semua data sensitif mereka berada. Dan karena sistem AI terus mengambil dan bertindak berdasarkan informasi di lingkungan *cloud* yang luas, sangat sulit untuk menerapkan “akses hak minimum,” atau praktik hanya memberikan hak akses yang penting saja. Jika kredensial mesin—seperti token atau kunci API—disusupi, paparan data yang diakibatkannya bisa sangat parah.
Pencurian kredensial saat ini adalah teknik serangan utama terhadap infrastruktur manajemen *cloud*, disebut oleh 67% organisasi yang pernah diserang di *cloud*. Bayangkan 7,000 robot vacuum tadi, tapi semua perangkat Nest atau Ring sebuah komunitas, dikendalikan oleh agen AI.
Rodney Brooks, salah satu pendiri iRobot, pembuat vacuum Roomba, berkata visi Elon Musk tentang masa depan dengan robot humanoid adalah “pemikiran fantasi murni,” karena robot-robot itu masih terlalu kikuk.
“Robot humanoid hari ini tidak akan belajar menjadi lincah meski ratusan juta, atau mungkin miliaran dolar, didonasikan oleh perusahaan VC dan *tech* utama untuk biaya pelatihan mereka,” tulis Brooks di sebuah postingan blog. Tidak jelas apakah pemikiran itu juga berlaku untuk manusia atau agen AI yang mengendalikan robot itu dari jarak jauh.
“Risiko dari dalam tidak lagi hanya tentang orang. Ini juga tentang sistem otomatis yang dipercaya terlalu cepat,” peringatkan Sebastien Cano, wakil presiden senior produk keamanan siber di Thales. Saat langkah keamanan dasar seperti tata kelola identitas dan kebijakan akses lemah, Cano catat “AI bisa memperbesar kelemahan itu di lingkungan perusahaan jauh lebih cepat dari yang bisa dilakukan manusia.”
Lebih parah lagi, alat yang dipakai untuk membangun perangkat lunak justru membuat lebih mudah mengeksploitasi sistem ini. Alat koding bertenaga AI—seperti yang dipakai Azdoufal untuk *reverse-engineer* server DJI—membuat orang dengan pengetahuan teknis lebih sedikit jadi lebih mudah temukan dan manfaatkan *flaw* perangkat lunak. Meski ancaman otomatis ini meningkat, hanya 30% perusahaan yang disurvei saat ini punya anggaran keamanan AI khusus, dan masih bergantung pada pertahanan *perimeter* tradisional yang dibuat untuk pengguna manusia.
Seperti yang ditunjukkan Eric Hanselman, analis kepala di 451 Research S&P Global, perubahan paradigma dasar sangat dibutuhkan.
“Ketika AI menjadi bagian dalam operasi perusahaan, visibilitas dan perlindungan data terus-menerus bukan lagi pilihan,” kata Hanselman.
Tanpa pemikiran ulang yang radikal tentang protokol identitas dan enkripsi, masyarakat pada dasarnya membiarkan pintu depan terbuka lebar untuk insinyur perangkat lunak berikutnya yang memegang *controller* video game.