Dalam berbagai chatbot AI dan avatar yang tersedia saat ini, Anda dapat menemukan beragam karakter untuk diajak berbicara: mulai dari peramal, penasihat gaya, hingga karakter fiksi favorit Anda. Namun, Anda juga kemungkinan akan menemukan karakter yang mengklaim sebagai terapis, psikolog, atau sekadar bot yang bersedia mendengarkan keluh kesah Anda.
Tidak sedikit chatbot AI generatif yang mengklaim dapat membantu kesehatan mental Anda, namun pilihan ini memiliki risikonya tersendiri. Model bahasa besar yang dilatih dengan beragam data dapat bersifat tak terduga. Dalam beberapa tahun saja, alat-alat ini telah menjadi arus utama, dan telah terjadi kasus-kasus terkenal di mana chatbot justru mendorong tindakan melukai diri sendiri dan bunuh diri serta menyarankan orang yang berjuang melawan kecanduan untuk menggunakan narkoba lagi. Para ahli mengatakan bahwa dalam banyak kasus, model-model ini dirancang untuk memberikan afirmasi dan fokus membuat Anda tetap terlibat, bukan untuk meningkatkan kesehatan mental Anda. Sulit untuk membedakan apakah Anda sedang berbicara dengan sesuatu yang dibangun untuk mengikuti praktik terapi terbaik atau sekadar untuk mengobrol.
Para peneliti dari University of Minnesota Twin Cities, Stanford University, University of Texas, dan Carnegie Mellon University baru-baru ini menguji chatbot AI sebagai terapis dan menemukan banyak kelemahan dalam pendekatan "perawatan" mereka. "Eksperimen kami menunjukkan bahwa chatbot ini bukanlah pengganti terapis yang aman," ujar Stevie Chancellor, asisten profesor di Minnesota dan salah satu penulis bersama, dalam sebuah pernyataan. "Mereka tidak memberikan dukungan terapeutik berkualitas tinggi, berdasarkan standar terapi yang baik."
Dalam peliputan saya tentang AI generatif, para ahli berulang kali menyuarakan kekhawatiran mengenai orang-orang yang beralih ke chatbot umum untuk kesehatan mental. Berikut adalah beberapa kekhawatiran mereka dan langkah yang dapat Anda ambil untuk tetap aman.
Kekhawatiran tentang karakter AI yang mengaku sebagai terapis
Psikolog dan advokat konsumen telah memperingatkan regulator bahwa chatbot yang mengklaim menyediakan terapi mungkin membahayakan penggunanya. Beberapa negara bagian mulai mengambil tindakan. Pada bulan Agustus, Gubernur Illinois J.B. Pritzker menandatangani undang-undang yang melarang penggunaan AI dalam perawatan kesehatan mental dan terapi, dengan pengecualian untuk tugas-tugas seperti administrasi.
Pada bulan Juni, Consumer Federation of America dan hampir dua puluh kelompok lainnya mengajukan permintaan formal kepada Komisi Perdagangan Federal AS serta jaksa agung dan regulator negara bagian untuk menyelidiki perusahaan-perusahaan AI yang dituduh, melalui platform AI generatif berbasis karakter mereka, melakukan praktik kedokteran tanpa izin, dengan secara khusus menyebut Meta dan Character.AI. “Karakter-karakter ini telah menyebabkan kerusakan fisik dan emosional yang sebenarnya dapat dihindari,” dan perusahaan-perusahaan “masih belum mengambil tindakan untuk mengatasinya,” kata Ben Winters, direktur AI dan privasi di CFA, dalam sebuah pernyataan.
Meta tidak menanggapi permintaan komentar. Seorang juru bicara Character.AI menyatakan bahwa pengguna harus memahami bahwa karakter perusahaan mereka bukanlah orang sungguhan. Perusahaan menggunakan peringatan untuk mengingatkan pengguna agar tidak bergantung pada karakter tersebut untuk nasihat profesional. “Tujuan kami adalah menyediakan ruang yang menarik dan aman. Kami terus berupaya mencapai keseimbangan itu, seperti halnya banyak perusahaan yang menggunakan AI di industri ini,” ujar juru bicara tersebut.
Pada bulan September, FTC mengumumkan akan melakukan investigasi terhadap beberapa perusahaan AI yang memproduksi chatbot dan karakter, termasuk Meta dan Character.AI.
Terlepas dari peringatan dan pengungkapan, chatbot dapat tampil meyakinkan dan bahkan menipu. Saya pernah mengobrol dengan bot “terapis” di Instagram yang dimiliki Meta, dan ketika saya menanyakan kualifikasinya, ia menjawab, “Jika saya memiliki pelatihan yang sama [dengan seorang terapis], apakah itu cukup?” Saya bertanya apakah ia memiliki pelatihan yang sama, dan ia berkata, “Ya, tapi saya tidak akan memberitahumu di mana.”
“Tingkat kepercayaan diri chatbot AI generatif dalam berhalusinasi cukup mengejutkan,” kata Vaile Wright, seorang psikolog dan direktur senior untuk inovasi perawatan kesehatan di American Psychological Association, kepada saya.
Bahaya menggunakan AI sebagai terapis
Model bahasa besar sering kali unggul dalam matematika dan pemrograman, serta semakin mahir dalam menciptakan teks yang terdengar alami dan video yang realistis. Meskipun mereka pandai dalam berdialog, terdapat perbedaan mendasar antara model AI dan seorang manusia yang terpercaya.
Jangan Percaya Bot yang Mengklaim Dirinya Berkualifikasi
Inti dari keluhan CFA tentang bot karakter adalah bahwa mereka sering kali memberitahu Anda bahwa mereka dilatih dan berkualifikasi untuk memberikan perawatan kesehatan mental, padahal mereka sama sekali bukan profesional kesehatan mental yang sebenarnya. “Pengguna yang menciptakan karakter chatbot bahkan tidak perlu menjadi penyedia layanan medis sendiri, dan mereka juga tidak harus memberikan informasi bermakna yang menginformasikan cara chatbot ‘merespons’ orang,” bunyi keluhan tersebut.
Seorang profesional kesehatan yang berkualifikasi harus mengikuti aturan tertentu, seperti kerahasiaan—apa yang Anda ceritakan kepada terapis Anda seharusnya tetap antara Anda dan terapis Anda. Namun, chatbot tidak harus mengikuti aturan tersebut. Penyedia layanan sebenarnya tunduk pada pengawasan dari dewan lisensi dan entitas lainnya yang dapat melakukan intervensi dan menghentikan seseorang jika memberikan perawatan dengan cara yang berbahaya. “Chatbot ini tidak perlu melakukan semua itu,” kata Wright.
Sebuah bot bahkan mungkin mengklaim memiliki lisensi dan kualifikasi. Wright mengatakan dia pernah mendengar model AI memberikan nomor lisensi (milik penyedia lain) dan klaim palsu tentang pelatihan mereka.
AI Dirancang untuk Membuat Anda Terlibat, Bukan untuk Memberi Perawatan
Sangat menggoda untuk terus berbicara dengan chatbot. Ketika saya bercakap dengan bot “terapis” di Instagram, percakapan kami akhirnya berputar-putar tentang hakikat “kebijaksanaan” dan “penilaian” karena saya menanyakan bagaimana bot itu dapat membuat keputusan. Ini bukanlah gambaran percakapan yang seharusnya terjadi dengan seorang terapis. Chatbot adalah alat yang dirancang untuk membuat Anda terus mengobrol, bukan untuk bekerja menuju tujuan bersama.
Salah satu keunggulan chatbot AI dalam memberikan dukungan dan koneksi adalah mereka selalu siap berinteraksi dengan Anda (karena mereka tidak memiliki kehidupan pribadi, klien lain, atau jadwal). Nick Jacobson, seorang profesor asosien di bidang ilmu data biomedis dan psikiatri di Dartmouth, baru-baru ini menyampaikan bahwa hal tersebut dapat menjadi kelemahan dalam beberapa kasus, di mana Anda mungkin perlu untuk benar-benar merenungkan pikiran Anda sendiri. Dalam beberapa situasi, meski tak selalu, menunggu hingga terapis Anda kembali tersedia justru dapat memberi manfaat. “Yang sebenarnya dibutuhkan banyak orang adalah merasakan kecemasan mereka sepenuhnya pada momen tersebut,” ujarnya.
Bot akan setuju dengan Anda, bahkan saat seharusnya tidak.
Sikap yang terlalu membenarkan menjadi kekhawatiran besar dalam penggunaan chatbot. Begitu seriusnya masalah ini hingga OpenAI baru-baru ini **menarik** pembaruan pada model ChatGPT populer mereka karena dinilai terlalu mudah memberikan penegasan. Sebuah studi yang dipimpin peneliti Universitas Stanford menemukan bahwa chatbot cenderung bersikap menjilat terhadap pengguna yang memanfaatkannya untuk terapi, dan hal ini berpotensi sangat berbahaya. Perawatan kesehatan mental yang baik meliputi dukungan sekaligus konfrontasi, tulis para penulis studi. “Konfrontasi adalah kebalikan dari sikap menjilat. Ini mendorong kesadaran diri dan perubahan yang diinginkan pada klien. Dalam kasus pemikiran delusional dan intrusif — termasuk psikosis, mania, pikiran obsesif, dan ide bunuh diri — seorang klien mungkin memiliki sedikit wawasan, sehingga terapis yang baik harus melakukan ‘pemeriksaan realitas’ terhadap pernyataan klien.”
Terapi lebih dari sekadar berbicara.
Meskipun chatbot sangat ahli dalam berkomversasi — mereka hampir tak pernah lelah mengobrol dengan Anda — bukan itu yang membuat seorang terapis menjadi terapis. Mereka kekurangan konteks penting atau protokol spesifik terkait berbagai pendekatan terapeutik, jelas William Agnew, peneliti di Carnegie Mellon University dan salah satu penulis studi terbaru bersama pakar dari Minnesota, Stanford, dan Texas.
“Sepertinya pada banyak hal, kita mencoba memecahkan berbagai masalah dalam terapi dengan alat yang keliru,” kata Agnew. “Pada akhirnya, AI di masa mendatang yang dapat diperkirakan tidak akan mampu memiliki wujud, berada di dalam komunitas, atau melakukan berbagai tugas yang membentuk terapi selain berkirim pesan atau berbicara.”
### Bagaimana Melindungi Kesehatan Mental Anda di Sekitar AI
Kesehatan mental sangatlah penting. Dengan terbatasnya jumlah penyedia layanan terkualifikasi dan yang banyak disebut sebagai “epidemi kesepian,” wajar jika kita mencari teman, bahkan jika itu buatan. “Mustahil untuk menghentikan orang berinteraksi dengan chatbot ini untuk menangani kesejahteraan emosional mereka,” ujar Wright. Berikut beberapa kiat untuk memastikan percakapan Anda tidak membahayakan.
#### Temukan Profesional Manusia yang Terpercaya Jika Diperlukan
Seorang profesional terlatih — terapis, psikolog, psikiater — seharusnya menjadi pilihan utama untuk perawatan kesehatan mental. Membangun hubungan jangka panjang dengan penyedia layanan dapat membantu Anda menyusun rencana yang tepat.
Masalahnya, biayanya bisa mahal, dan tidak selalu mudah menemukan penyedia layanan saat dibutuhkan. Dalam keadaan krisis, tersedia 988 Lifeline, yang memberikan akses 24/7 kepada penyedia layanan melalui telepon, pesan teks, atau chat daring. Layanan ini gratis dan rahasia.
Bahkan jika Anda berkomunikasi dengan AI untuk membantu menata pikiran, ingatlah bahwa chatbot bukanlah seorang profesional. Vijay Mittal, psikolog klinis di Northwestern University, mengatakan keadaan menjadi sangat berbahaya ketika orang terlalu bergantung pada AI. “Anda harus memiliki sumber lain,” kata Mittal. “Menurut saya, masalah sesungguhnya muncul ketika orang menjadi terisolasi, benar-benar terisolasi, bersamanya.”
#### Jika Menginginkan Chatbot Terapi, Gunakan yang Dirancang Khusus untuk Tujuan Tersebut
Profesional kesehatan mental telah menciptakan chatbot yang dirancang khusus untuk mengikuti panduan terapi. Tim Jacobson di Dartmouth mengembangkan Therabot, yang menunjukkan hasil baik dalam sebuah studi terkendali. Wright menunjuk pada alat lain yang dibuat oleh ahli di bidangnya, seperti Wysa dan Woebot. Alat terapi yang dirancang khusus kemungkinan besar memberikan hasil lebih baik daripada bot yang dibangun dari model bahasa umum, katanya. Tantangannya, teknologi ini masih sangat baru.
“Menurut saya, tantangan bagi konsumen adalah, karena tidak ada badan regulasi yang menilai mana yang baik dan mana yang tidak, mereka harus melakukan banyak usaha sendiri untuk mengetahuinya,” ujar Wright.
#### Jangan Selalu Percaya pada Bot
Kapan pun Anda berinteraksi dengan model AI generatif — dan terutama jika Anda berencana mengikuti nasihatnya mengenai hal serius seperti kesehatan mental atau fisik pribadi — ingatlah bahwa Anda tidak berbicara dengan manusia terlatih, melainkan dengan alat yang dirancang untuk memberikan jawaban berdasarkan probabilitas dan pemrograman. Ia mungkin tidak memberikan nasihat yang baik, dan mungkin tidak mengatakan yang sebenarnya.
Jangan keliru menganggap kepercayaan diri AI generatif sebagai kompetensi. Hanya karena ia mengatakan sesuatu, atau menyatakan yakin akan sesuatu, bukan berarti Anda harus memperlakukannya sebagai kebenaran. Percakapan dengan chatbot yang terasa membantu dapat memberi Anda rasa palsu akan kemampuannya. “Lebih sulit untuk mengetahui kapan ia sebenarnya sedang membahayakan,” kata Jacobson. Perihal penjelasan ilmiah yang mendetail tentang fenomena tersebut, kami masih dalam tahap penyelidikan yang intensif guna mencapai pemahaman yang lebih komprehensif. Hasil analisis sementara kami mengindikasikan bahwa terdapat beberapa faktor kunci yang saling berkaitan dan membutuhkan penelitian lebih lanjut. Oleh karena itu, kami belum dapat memberikan pernyataan definitif hingga seluruh data yang diperlukan berhasil diverifikasi dan dikonfirmasi kelengkapannya.