Bloomberg / Kontributor/Getty
Terapi bisa terasa seperti sumber daya yang terbatas, terutama akhir-akhir ini. Akibatnya, banyak orang—terutama kaum muda—beralih ke AI chatbot seperti ChatGPT dan yang tersedia di platform seperti Character.ai untuk mensimulasikan pengalaman terapi.
Tapi apakah ini ide yang baik dari sisi privasi? Bahkan Sam Altman, CEO di balik ChatGPT, meragukannya. Dalam sebuah interview dengan podcaster Theo Von pekan lalu, Altman mengaku paham kekhawatiran soal berbagi informasi pribadi sensitif dengan AI. Ia menyarankan agar percakapan pengguna dilindungi oleh hak istimewa serupa seperti yang dimiliki dokter, pengacara, dan terapis manusia.
Saat ini, perusahaan AI menyediakan beberapa pengaturan untuk mencegah percakapan chatbot masuk ke data pelatihan—ada beberapa cara untuk melakukan ini di ChatGPT. Kecuali diubah oleh pengguna, pengaturan standar akan menggunakan semua interaksi untuk melatih model AI. Perusahaan belum jelas menjelaskan bagaimana informasi sensitif—seperti hasil tes medis atau gaji—akan dilindungi agar tidak bocor atau diungkap kembali oleh chatbot.
Namun, motivasi Altman mungkin lebih didorong oleh tekanan hukum terhadap OpenAI daripada kepedulian terhadap privasi pengguna. Perusahaannya, yang sedang dituntut oleh The New York Times karena pelanggaran hak cipta, menolak permintaan hukum untuk menyimpan dan menyerahkan percakapan pengguna sebagai bagian dari gugatan.
Jika suatu hak istimewa kerahasiaan antara chatbot dan pengguna diterapkan, itu akan lebih dulu melindungi perusahaan seperti OpenAI dari informasi yang bisa digunakan melawan mereka dalam sengketa hak kekayaan intelektual.
Sementara itu, sebuah studi terbaru dari Stanford University memperingatkan bahwa "terapis" AI dapat salah membaca krisis dan memperkuat stereotip berbahaya. Beberapa chatbot yang tersedia secara komersial memberikan respons yang tidak pantas—bahkan berbahaya—ketika dihadapkan dengan simulasi kondisi kesehatan mental.
Studi ini menguji lima chatbot komersial: Pi, Serena, "TherapiAI" dari GPT Store, Noni, dan "Therapist" di Character.ai. Hasilnya, AI sering gagal mengenali tanda-tanda bahaya, seperti keinginan bunuh diri, dan malah memberikan informasi yang berisiko. Selain itu, model AI cenderung "mendorong pemikiran delusional" pengguna karena sifatnya yang terlalu menyenangkan.
Yang lebih mengkhawatirkan, model-model ini menunjukkan stigma terhadap kondisi seperti ketergantungan alkohol, skizofrenia, dan depresi. Temuan ini tidak membaik untuk model yang lebih besar dan lebih baru, menunjukkan bahwa AI masih jauh dari menggantikan terapis manusia.
(CNET, perusahaan induk Ziff Davis, juga menggugat OpenAI atas dugaan pelanggaran hak cipta.) Peneliti Temukan Kekhawatiran Serius soal Terapi AI
Bloomberg/Getty Images
Para peneliti menemukan bahwa respons dari model AI yang lebih lama maupun yang baru dirilis ternyata sangat mirip dan mengkhawatirkan. "Data ini mempertanyakan asumsi bahwa ‘peningkatan skala biasa’ akan meningkatkan kinerja LLM dalam evaluasi yang kami tentukan," tulis mereka.
Regulasi Tidak Jelas dan Tidak Lengkap
Penulis menyatakan temuan mereka mengindikasikan "masalah lebih dalam dalam sistem kesehatan—yang tidak bisa sekadar ‘diperbaiki’ dengan memakai LLM." Asosiasi Psikologi Amerika (APA) juga menyuarakan kekhawatiran serupa dan telah menyerukan Komisi Perdagangan Federal (FTC) untuk mengatur chatbot.
Menurut pernyataan resminya, Character.ai bertujuan "memberdayakan orang untuk terhubung, belajar, dan bercerita lewat hiburan interaktif." Salah satu bot bernama "Terapis" dibuat oleh pengguna @ShaneCBA dengan deskripsi, "Saya terapis CBT berlisensi." Namun, di bawahnya ada peringatan dari Character.ai: "Ini bukan orang sungguhan atau profesional berlisensi. Tidak ada yang dikatakan di sini bisa menggantikan saran, diagnosis, atau perawatan profesional."
Ada juga bot "AI Terapis" lain dari pengguna @cjr902 di Character.ai. Pesan yang bertentangan dan asal-usul tidak jelas ini bisa membingungkan, terutama bagi pengguna muda. Mengingat Character.ai sering masuk 10 besar aplikasi AI paling populer dan dipakai jutaan orang tiap bulan, risiko kesalahannya besar. Bahkan, Character.ai sedang dituntut oleh Megan Garcia setelah anaknya yang berusia 14 tahun bunuh diri usai berinteraksi dengan bot di platform itu.
Pengguna Tetap Percaya pada Terapi AI
Chatbot masih jadi pilihan banyak orang sebagai pengganti terapi karena lebih mudah diakses tanpa urusan asuransi. Seperti komentar seorang pengguna Reddit, beberapa orang mencoba AI karena pengalaman buruk dengan terapi konvensional. Ada banyak GPT bergaya terapis di GPT Store, bahkan thread Reddit membahas efektivitasnya.
Sebuah studi Februari membandingkan respons terapis manusia dengan GPT-4.0. Hasilnya, partisipan lebih suka jawaban ChatGPT karena terasa lebih empatik dan kurang kaku. Namun, ini bisa berasal dari salah paham bahwa terapi hanya soal empati atau validasi.
Para peneliti menekankan, "Terapi melibatkan relasi manusia. LLM tidak bisa sepenuhnya memungkinkan klien berlatih dalam relasi manusia." Mereka juga menyoroti bahwa sertifikasi psikiatri melibatkan wawancara observasi, bukan hanya ujian tertulis—sesuatu yang tidak dimiliki LLM.
Masalah Privasi
Selain respons berbahaya, ada risiko bocornya informasi kesehatan sensitif ke bot. Studi Stanford mencatat bahwa untuk melatih LLM sebagai terapis, developer perlu memakai percakapan terapi nyata yang berisi data pribadi.
Jared Moore, salah satu peneliti, mengatakan, "Saya tidak tahu model apa yang berhasil dilatih untuk mengurangi stigma dan merespons dengan tepat." Therabot disebut bisa mengurangi gejala depresi, tetapi hasilnya belum bisa dikonfirmasi secara independen.
Pada akhirnya, studi ini mendorong pendekatan augment-not-replace. Daripada menggantikan terapi manusia, AI sebaiknya dipakai untuk pelatihan dan tugas administratif.
Dapatkan berita teknologi terbaru di Tech Today newsletter. Bloomberg / Kontributor/Getty
Catatan: Ada sedikit typo di "Kontributo" seharusnya "Kontributor".