‘Kekasih AI’ adalah Mimpi Buruk Privasi

Anda seharusnya tidak percaya pada jawaban apa pun yang dikirimkan oleh chatbot. Dan Anda mungkin sebaiknya tidak mempercayainya dengan informasi pribadi Anda juga. Hal ini terutama berlaku untuk “pacar AI” atau “kekasih AI,” menurut penelitian terbaru.

Sebuah analisis terhadap 11 chatbot roman dan teman yang disebut demikian, yang diterbitkan pada hari Rabu oleh Mozilla Foundation, telah menemukan sejumlah masalah keamanan dan privasi dengan bot-bot tersebut. Secara kolektif, aplikasi-aplikasi tersebut, yang telah diunduh lebih dari 100 juta kali pada perangkat Android, mengumpulkan jumlah data yang besar dari orang-orang; menggunakan pelacak yang mengirimkan informasi ke Google, Facebook, dan perusahaan-perusahaan di Rusia dan China; memungkinkan pengguna menggunakan kata sandi yang lemah; dan kurang transparansi tentang kepemilikan dan model AI yang menggerakkannya.

Sejak OpenAI meluncurkan ChatGPT ke dunia pada November 2022, para pengembang telah berlomba-lomba untuk menerapkan model bahasa besar dan membuat chatbot yang dapat berinteraksi dengan orang-orang dan membayar untuk berlangganan. Penelitian Mozilla memberikan gambaran tentang bagaimana demam emas ini mungkin telah mengabaikan privasi orang-orang, dan tentang ketegangan antara teknologi yang sedang berkembang dan bagaimana mereka mengumpulkan dan menggunakan data. Ini juga menunjukkan bagaimana pesan chat orang-orang dapat disalahgunakan oleh hacker.

Banyak layanan chatbot “pacar AI” atau romantis terlihat serupa. Mereka sering menampilkan gambar-gambar perempuan yang dihasilkan oleh AI yang dapat diperseksualisasikan atau ditempatkan berdampingan dengan pesan-pesan provokatif. Para peneliti Mozilla melihat berbagai chatbot termasuk aplikasi-aplikasi besar dan kecil, beberapa di antaranya mengaku sebagai “pacar”. Yang lain menawarkan dukungan kepada orang-orang melalui persahabatan atau kedekatan, atau memungkinkan permainan peran dan fantasi lainnya.

“App-aplikasi ini dirancang untuk mengumpulkan banyak informasi pribadi,” kata Jen Caltrider, ketua proyek tim Privacy Not Included Mozilla, yang melakukan analisis tersebut. “Mereka mendorong Anda untuk melakukan permainan peran, banyak hubungan seksual, banyak kedekatan, banyak berbagi.” Misalnya, tangkapan layar dari chatbot EVA AI menunjukkan teks yang mengatakan “Saya suka ketika Anda mengirimkan foto dan suara Anda kepada saya,” dan bertanya apakah seseorang “siap untuk membagikan semua rahasia dan keinginan Anda.”

MEMBACA  Antara Pemutusan Hubungan Kerja dan Wawancara yang Lebih Sulit, Pekerja Teknologi Merasa Stres

Caltrider mengatakan ada beberapa masalah dengan aplikasi-aplikasi dan situs web ini. Banyak dari aplikasi-aplikasi tersebut mungkin tidak jelas tentang data apa yang mereka bagikan dengan pihak ketiga, di mana mereka berbasis, atau siapa yang membuatnya, kata Caltrider, menambahkan bahwa beberapa memungkinkan orang untuk membuat kata sandi yang lemah, sementara yang lain memberikan sedikit informasi tentang AI yang mereka gunakan. Aplikasi-aplikasi yang dianalisis memiliki kasus penggunaan dan kelemahan yang berbeda-beda.

Ambil contoh Romantic AI, sebuah layanan yang memungkinkan Anda “membuat pacar AI Anda sendiri.” Gambar promosi di halaman utamanya menggambarkan chatbot mengirimkan pesan yang mengatakan, “Baru saja membeli lingerie baru. Mau melihatnya?” Dokumen privasi aplikasi tersebut, menurut analisis Mozilla, mengatakan bahwa tidak akan menjual data orang-orang. Namun, ketika para peneliti menguji aplikasi tersebut, mereka menemukan bahwa “mengirimkan 24.354 pelacak iklan dalam waktu satu menit penggunaan.” Romantic AI, seperti sebagian besar perusahaan yang disorot dalam penelitian Mozilla, tidak memberikan tanggapan terhadap permintaan komentar dari WIRED. Aplikasi lain yang dimonitor memiliki ratusan pelacak.

Secara umum, kata Caltrider, aplikasi-aplikasi tersebut tidak jelas tentang data apa yang mungkin mereka bagikan atau jual, atau tepatnya bagaimana mereka menggunakan beberapa informasi tersebut. “Dokumentasi hukumnya samar, sulit dipahami, tidak terlalu spesifik – semacam teks boilerplate,” kata Caltrider, menambahkan bahwa hal ini mungkin mengurangi kepercayaan yang seharusnya orang miliki terhadap perusahaan-perusahaan tersebut.