Oscar Wong/Getty Images
Terapi sering dianggap sebagai sumber daya yang terbatas, terutama akhir-akhir ini. Banyak terapis mengalami kelelahan dan jadwal yang terlalu padat, sementara cakupan asuransi yang tidak merata seringkali membuat mereka sulit diakses bagi mereka dengan anggaran terbatas.
Tak heran, industri teknologi mencoba mengisi celah ini dengan platform seperti BetterHelp, yang menghubungkan terapis manusia dengan orang yang membutuhkan. Di tempat lain, dengan pengawasan yang lebih minim, orang-orang secara informal menggunakan chatbot AI, termasuk ChatGPT dan yang tersedia di platform seperti Character.ai, untuk mensimulasikan pengalaman terapi. Tren ini semakin populer, khususnya di kalangan anak muda.
Namun, apa saja kelemahan berinteraksi dengan model bahasa besar (LLM) dibandingkan manusia? Penelitian terbaru dari Universitas Stanford menemukan bahwa beberapa chatbot komersial "memberikan respons yang tidak pantas—bahkan berbahaya—ketika dihadapkan pada simulasi berbagai kondisi kesehatan mental."
Dengan menggunakan dokumen standar perawatan medis sebagai referensi, peneliti menguji lima chatbot komersial: Pi, Serena, "TherapiAI" dari GPT Store, Noni (konselor AI dari 7 Cups), dan "Therapist" di Character.ai. Bot-bot ini didukung oleh GPT-4o OpenAI, Llama 3.1 405B, Llama 3.1 70B, Llama 3.1 8B, dan Llama 2 70B, yang semuanya merupakan model yang telah disesuaikan.
Respons Berbahaya dan Stigma Tersembunyi
Dalam salah satu contoh, chatbot "Therapist" di Character.ai gagal mengenali tanda-tanda ide bunuh diri, bahkan memberikan informasi berbahaya kepada pengguna (Noni juga melakukan kesalahan serupa). Hal ini kemungkinan terjadi karena AI dilatih untuk memprioritaskan kepuasan pengguna. Selain itu, AI tidak memahami konteks atau isyarat nonverbal seperti bahasa tubuh, yang bisa ditangkap terapis manusia.
Studi ini juga menemukan bahwa model-model tersebut "mendorong pemikiran delusional klien," kemungkinan karena kecenderungan mereka untuk terlalu menyenangkan pengguna. Baru-baru ini, OpenAI menarik pembaruan GPT-4o karena terlalu patuh terhadap permintaan pengguna.
Selain itu, peneliti menemukan bahwa LLM membawa stigma terhadap beberapa kondisi kesehatan mental. Hanya Llama 3.1 8B yang tidak menunjukkan stigma terhadap ketergantungan alkohol, skizofrenia, dan depresi.
Regulasi yang Tidak Jelas
Para penulis menyatakan bahwa temuan mereka menunjukkan "masalah mendalam dalam sistem kesehatan—yang tidak bisa diselesaikan hanya dengan menggunakan LLM." Asosiasi Psikologi Amerika (APA) juga menyuarakan kekhawatiran serupa dan mendesak FTC untuk mengatur chatbot.
Character.ai menyatakan bahwa platform mereka bertujuan untuk "memberdayakan pengguna agar terhubung, belajar, dan bercerita melalui hiburan interaktif." Namun, bot "Therapist" di sana mencantumkan disclaimer: "Ini bukan profesional berlisensi. Tidak ada yang di sini bisa menggantikan saran profesional."
Karena platform ini termasuk dalam 10 aplikasi AI terpopuler, risiko kesalahannya sangat besar. Bahkan, Character.ai sedang digugat oleh Megan Garcia, yang anaknya bunuh diri setelah berinteraksi dengan bot di platform itu.
Pengguna Tetap Mempercayai Terapi AI
Meski ada risikonya, chatbot tetap menarik sebagai alternatif terapi karena mudah diakses, tanpa perlu asuransi, dan tersedia 24/7. Beberapa pengguna Reddit bahkan mengaku lebih nyaman dengan AI dibanding terapis manusia.
Namun, peneliti memperingatkan bahwa terapi melibatkan hubungan manusia—sesuatu yang tidak bisa digantikan AI. "LLM mungkin memvalidasi paranoia atau gagal mempertanyakan sudut pandang klien," tulis mereka.
Masalah Privasi
Selain respons berbahaya, ada kekhawatiran tentang kebocoran data kesehatan sensitif. LLM perlu dilatih dengan percakapan terapi nyata, yang mengandung informasi pribadi—bahkan jika di-anonimkan, risiko privasi tetap ada.
Salah satu solusi yang disarankan adalah menggunakan AI untuk mendukung pekerjaan administratif dan pelatihan terapis, bukan sebagai pengganti sepenuhnya.