Dokumen Beracun Tunggal Bisa Bocorkan Data ‘Rahasia’ Lewat ChatGPT

Model AI generatif terbaru bukan cuma chatbot penghasil teks biasa—mereka bisa dengan mudah dihubungkan ke data pribadi Anda untuk memberikan jawaban yang sesuai kebutuhan. ChatGPT OpenAI bisa disambungkan ke kotak masuk Gmail, memeriksa kode GitHub, atau mencari jadwal di kalender Microsoft. Tapi koneksi ini bisa disalahgunakan—peneliti membuktikan hanya butuh satu dokumen “beracun” untuk melakukannya.

Temuan terbaru dari peneliti keamanan Michael Bargury dan Tamir Ishay Sharbat, yang dipresentasikan di konferensi peretas Black Hat di Las Vegas hari ini, menunjukkan kelemahan di Connectors OpenAI yang memungkinkan informasi sensitif diambil dari akun Google Drive melalui serangan injeksi perintah tidak langsung. Dalam demo serangan yang dinamai AgentFlayer, Bargury menunjukkan cara mencuri rahasia developer berupa kunci API dari akun Drive percobaan.

Kerentanan ini memperlihatkan bagaimana menghubungkan model AI ke sistem eksternal dan berbagi lebih banyak data memperluas celah serangan bagi peretas jahat serta meningkatkan risiko munculnya kerentanan baru.

“Pengguna tidak perlu melakukan apa pun untuk diretas, dan tidak perlu tindakan apapun agar datanya bocor,” kata Bargury, CTO perusahaan keamanan Zenity, kepada WIRED. “Kami tunjukkan ini benar-benar serangan tanpa klik; cukup alamat email Anda, kami berbagi dokumen, dan selesai. Ini sangat, sangat berbahaya,” tambahnya.

OpenAI belum merespons permintaan komentar WIRED tentang kerentanan di Connectors. Fitur beta ini diluncurkan awal tahun, dan situsnya mencantumkan setidaknya 17 layanan yang bisa diintegrasikan. Sistem ini diklaim memungkinkan pengguna “membawa alat dan data ke ChatGPT” serta “mencari file, mengambil data langsung, dan mereferensikan konten dalam obrolan.”

Bargury melaporkan temuannya ke OpenAI awal tahun ini, dan perusahaan langsung menerapkan mitigasi untuk mencegah teknik ekstraksi data melalui Connectors. Serangan ini hanya bisa mengambil data dalam jumlah terbatas sekaligus—tidak bisa mencuri dokumen utuh.

MEMBACA  Kacamata Pintar Meta Bisa Membuatmu Lebih Cerdas, dan Jauh Lebih Canggung.

“Meski masalah ini tidak spesifik pada Google, ini menunjukkan pentingnya proteksi kuat terhadap serangan injeksi perintah,” ujar Andy Wen, direktur senior manajemen produk keamanan Google Workspace, merujuk pada peningkatan keamanan AI mereka baru-baru ini.

*(Typos: “penghasil” → “penghsil”, “peretas” → “preetas”)*