Kerry Wan/ZDNET
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
Seberapa personalkah interaksi Anda dengan chatbot?
Apakah ia membantu menafsirkan hasil lab? Membantu mengatur keuangan? Memberi nasihat di jam 2 pagi saat kekhawatiran Anda terasa begitu eksistensial?
Tanpa disadari, Anda mungkin telah membocorkan sejumlah besar informasi pribadi, dan hal ini bisa menjadi masalah.
Di era di mana chatbot kian terintegrasi dalam keseharian, para peneliti tengah menyelidiki implikasi dari memberi informasi pribadi kepada AI.
Baca juga: 43% pekerja mengaku membagikan info sensitif ke AI—termasuk data keuangan dan klien
Kini, banyak cerita tentang orang yang menjalin hubungan romantis dengan chatbot atau menggunakannya sebagai pelatih hidup dan terapis. Faktanya, lebih dari separuh orang dewasa AS telah menggunakan model bahasa besar, menurut studi 2025 dari Elon University. Tak hanya itu, chatbot memang dirancang agar ramah dan mendorong pengguna terus mengobrol—dan membicarakan diri mereka sendiri.
“Masalah utamanya adalah Anda tak bisa mengontrol kemana informasi itu mengalir, dan ia bisa bocor dengan cara yang tak terduga,” ungkap Jennifer King, rekan kebijakan privasi dan data di Stanford Institute for Human-Centered Artificial Intelligence.
Meski terdengar abstrak, para peneliti seperti King menekankan pentingnya mempertimbangkan apa yang Anda sampaikan ke chatbot, serta dampak informasi itu di masa depan.
Berikut enam hal yang perlu diketahui tentang berbagi terlalu banyak hal personal dengan chatbot.
1. Memorisasi, prediksi, pengawasan
Lalu, apa risikonya memberikan informasi sensitif kepada chatbot?
Tidak ada yang sepenuhnya yakin, dan itulah masalahnya. Salah satu pertanyaan penelitian adalah apakah model dapat menghafal informasi, dan jika ya, apakah informasi itu bisa dikeluarkan kembali secara verbatim atau hampir sama. Memorasi sebenarnya menjadi salah satu keluhan inti dalam gugatan The New York Times terhadap OpenAI. (OpenAI, dalam pernyataan 2024, menyebut “regurgitasi adalah bug langka” yang sedang berusaha dihilangkan.)
(Keterangan: Ziff Davis, induk perusahaan ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan dakwaan melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)
“Kita sangat bergantung pada perusahaan untuk bertindak benar dan memasang pengaman yang mencegah data yang dihafal keluar,” kata King.
Di internet, beragam informasi pribadi orang bertebaran, termasuk dalam dokumen publik, yang bisa saja menjadi data pelatihan. Atau seseorang mungkin mengunggah dokumen seperti laporan radiologi atau tagihan medis tanpa menyensor informasi sensitif.
Yang dikhawatirkan, semua data ini dapat digunakan untuk pengawasan, ujar King.
Jika kekhawatiran ini dianggap berlebihan, King mengingatkan pada perdebatan Anthropic dengan Departemen Pertahanan AS beberapa pekan lalu, di mana perusahaan tersebut menolak produknya digunakan untuk pengawasan massal domestik.
“Salah satu hal terpenting yang terungkap adalah pengakuan diam-diam bahwa teknologi ini memang dapat dipakai untuk pengawasan massal publik,” jelasnya. “Ini tepatnya yang kami khawatirkan, bahwa model ini dapat digunakan untuk menganalisis banyak titik data berbeda.”
Dan bahkan jika model tidak memiliki data spesifik, mereka masih bisa membuat prediksi tentang seseorang.
Dalam tulisan untuk Stanford tentang penelitian timnya, King memberi contoh permintaan ide makan malam sehat jantung yang diproses dalam ekosistem pengembang, mengklasifikasikan Anda sebagai orang “rentan kesehatan”, dan informasi itu akhirnya sampai ke perusahaan asuransi.
Temuan penelitian King menunjukkan bahwa tak selalu jelas apa yang dilakukan perusahaan untuk menangani masalah ini. Beberapa organisasi mengambil langkah untuk mende-identifikasi data sebelum menggunakannya untuk pelatihan, misalnya mengaburkan wajah dalam foto yang diunggah, yang dapat mencegah gambar tersebut digunakan untuk pengenalan wajah di masa depan. Perusahaan lain mungkin tidak melakukan apa-apa sama sekali.
2. Pengaturan Anda mungkin terlalu longgar
Meski pengaturan platform seringkali rumit, ada baiknya meluangkan waktu untuk memahami opsi yang ada. Beberapa chatbot, seperti Claude dan ChatGPT, menawarkan obrolan privat. Jika menggunakan obrolan incognito Claude, percakapan tidak akan disimpan ke riwayat atau digunakan untuk pelatihan. Namun, pengaturan ini tidak permanen. Hal serupa berlaku untuk Obrolan Sementara ChatGPT.
Mungkin ada opsi lain di platform untuk menghapus riwayat obrolan atau memilih agar obrolan Anda tidak dimasukkan ke dalam data pelatihan model.
Baca juga: 5 penyesuaian mudah pengaturan Gemini untuk lindungi privasi Anda dari AI
King juga mengingatkan, misalnya, untuk memperhatikan apakah Anda menggunakan akun pribadi atau akun kerja.
“Orang kadang tidak tahu atau lupa dengan siapa mereka berbincang,” katanya. “Ini adalah konteks kerja, AI kerja, dan Anda memberitahunya bahwa Anda merasa sangat tertekan. Tidak ada ekspektasi privasi bagi karyawan di situ.”
3. Emosi mengungkap konteks ekstra
Kebanyakan orang mungkin sudah terbiasa dengan tingkat keterbukaan tertentu di internet. Bahkan pencarian Google dapat berisi informasi sensitif tentang kehidupan seseorang.
Namun, percakapan dengan chatbot menambahkan lebih banyak informasi dan konteks.
“Kueri pencarian jauh kurang mengungkap, terutama tentang keadaan emosional Anda, dibandingkan transkrip obrolan utuh,” ujar King, membandingkan pencarian hotline pencegahan bunuh diri dengan transkrip 1.000 baris yang merinci pikiran dan perasaan terdalam seseorang.
4. Manusia mungkin membaca
AI, seperti diketahui, bukan manusia. Bagi sebagian orang, konsep ini mungkin membuat mereka lebih nyaman membagikan informasi sensitif. Tetapi meskipun tidak ada manusia yang mengetik balasan, bukan berarti seseorang tidak dapat membaca pesan Anda.
Baca juga: Bisakah pekerja Meta melihat melalui kacamata pintar Ray-Ban Anda? Pendapat ahli keamanan
King mencatat bahwa beberapa platform menggunakan manusia untuk pembelajaran penguatan, di mana sistem dilatih sebagian berdasarkan masukan manusia.
Kerry Wan/ZDNET
Sebagai contoh, bila Anda menandai respons chatbot, seorang pekerja di belahan dunia lain mungkin akan memeriksanya demi meningkatkan model tersebut. Seperti dikatakan King, tidak selalu jelas kapan sesuatu yang Anda ketik mungkin akan ditinjau oleh manusia.
## 5. Kebijakan yang Tertinggal
Apa yang membuat semua poin ini semakin rumit adalah kurangnya regulasi mengenai cara perusahaan AI menyimpan data sensitif.
Undang-Undang Privasi Konsumen California, misalnya, memiliki persyaratan tertentu tentang bagaimana data seperti rekam medis harus diperlakukan berbeda dari data lainnya. Namun regulasi di AS dapat bervariasi antar negara bagian, dan di tingkat federal – ya, belum ada regulasi yang jelas.
“Jika ada hukum yang melindungi kita, risikonya tidak akan sebesar ini,” ujar King.
## Langkah jika Terlalu Banyak Berbagi…
Jika Anda merasa khawatir karena mungkin telah membagikan terlalu banyak informasi ke chatbot, ada beberapa opsi yang dapat dipertimbangkan. King merekomendasikan untuk menghapus percakapan lama dan personalisasi yang mungkin telah Anda buat.
Apakah langkah-langkah tersebut menghapus informasi Anda dari data pelatihan? Menurut King, para peneliti belum mengetahuinya dengan pasti.
Setiap platform memiliki kebijakan dan metode tersendiri dalam menangani data pribadi, yang mungkin perlu ditelusuri lebih lanjut. Berikut tautan ke sumber daya dari beberapa penyedia utama.