Bahkan Pembuat ChatGPT Sendiri Menyarankan untuk Tidak Menggunakan Chatbot sebagai Terapis

Jangan terlalu terbuka dengan rahasia terdalammu pada chatbot AI seperti ChatGPT. Nggak perlu percaya kata-kataku. Lebih baik dengar langsung dari orang di balik model AI generatif paling populer saat ini.

Sam Altman, CEO OpenAI yang menciptakan ChatGPT, mengangkat masalah ini dalam sebuah wawancara dengan Theo Von di podcast This Past Weekend. Dia bilang, percakapan dengan AI seharusnya punya perlindungan privasi seperti saat kita bicara ke dokter atau pengacara. Von sendiri mengaku ragu pakai beberapa alat AI karena "nggak tahu siapa yang bakal pegang" data pribadinya.

"Menurutku itu wajar," kata Altman, "ingin kejelasan soal privasi dan aspek hukum sebelum sering menggunakannya."

Banyak pengguna AI sekarang memperlakukan chatbot seperti terapis, dokter, atau pengacara—ini menciptakan masalah privasi serius. Nggak ada aturan kerahasiaan, dan cara kerja percakapan tersebut juga sangat tidak jelas. Tentu, ada masalah lain kalau pakai AI sebagai tempat curhat, misalnya saran buruk atau penguatan stereotip. (Nelson Aguilar pernah buat daftar 11 hal yang sebaiknya nggak dilakukan pakai ChatGPT.)

Altman sadar betul soal ini dan tampak sedikit khawatir. "Orang, terutama anak muda, pakai AI sebagai terapis atau konsultan kehidupan. Kalau ada masalah hubungan, mereka tanya AI. Padahal, kalau bicara ke terapis atau pengacara, ada perlindungan hukum," ujarnya.

Pertanyaan ini muncul seputar perlunya regulasi AI yang lebih ketat. Tapi aturan yang membatasi perkembangan AI kayaknya nggak populer di Washington—rencana aksi AI mantan Presiden Trump malah ingin mengurangi regulasi. Tapi aturan perlindungan privasi mungkin lebih diterima.

Baca juga: AI Essentials: 29 Cara Manfaatkan AI Generatif

Yang paling dikhawatirkan Altman adalah kurangnya perlindungan hukum bagi perusahaan seperti OpenAI agar nggak dipaksa membocorkan percakapan pribadi dalam tuntutan hukum. OpenAI pernah menolak permintaan menyimpan data percakapan dalam kasus The New York Times terkait pelanggaran hak cipta. (Catatan: Ziff Davis, perusahaan induk CNET, juga menggugat OpenAI atas penggunaan konten tanpa izin.)

"Kalau kamu cerita hal sensitif ke ChatGPT lalu ada gugatan hukum, kami bisa dipaksa membocorkannya," kata Altman. "Menurutku ini salah. Perlindungan privasi percakapan dengan AI harus setara dengan terapis."

MEMBACA  Saya menyesal membeli tongkat perawatan kulit TikTok yang viral

Hati-hati dengan apa yang kamu ceritakan ke AI

Masalahnya bukan cuma soal OpenAI mungkin bocorkan datamu, tapi siapa yang kamu percaya untuk simpan rahasiamu.

William Agnew, peneliti di Carnegie Mellon yang mengevaluasi kinerja chatbot dalam menangani pertanyaan terapeutik, bilang privasi adalah masalah utama saat curhat ke AI. Ketidakpastian cara kerja model—dan bagaimana percakapanmu nggak bocor—sudah cukup jadi alasan untuk ragu.

**”Meski perusahaan berusaha jaga data, model AI terkenal bisa memuntahkan kembali informasi,”** kata Agnew.

Kalau ChatGPT atau alat lain mengulang informasi dari sesi terapi atau pertanyaan medismu, itu bisa muncul saat perusahaan asuransi atau orang lain menanyakan hal serupa tentangmu.

**”Orang harus lebih memikirkan privasi. Hampir semua yang diceritakan ke chatbot nggak benar-benar privat,”** tegas Agnew. **”Data itu akan dipakai dengan berbagai cara.”**