Richard Drury/Getty Images
Semakin banyak orang yang beralih ke chatbot AI untuk berbagai kebutuhan, mulai dari bimbingan karir hingga percintaan, ditengah wabah kesepian dan hambatan struktural dalam dukungan kesehatan mental. Studi terbaru Anthropic menunjukkan bahwa chatbot mereka, Claude, mampu menangani hal ini dengan baik—tetapi beberapa ahli masih skeptis.
Juga: Anda seharusnya tidak percaya AI untuk terapi – ini alasannya
Pada Kamis, Anthropic mempublikasikan penelitian baru tentang kemampuan kecerdasan emosional (EQ) dari chatbot Claude—yang mereka sebut sebagai penggunaan afektif, yaitu percakapan “di mana orang berinteraksi langsung dengan Claude dalam pertukaran pribadi yang dinamis, didorong oleh kebutuhan emosional atau psikologis seperti mencari nasihat interpersonal, pelatihan, psikoterapi/konseling, persahabatan, atau roleplay seksual/romantis,” jelas perusahaan tersebut.
Meskipun Claude dirancang terutama untuk tugas seperti pembuatan kode dan pemecahan masalah, bukan dukungan emosional, penelitian ini mengakui bahwa penggunaan semacam ini tetap terjadi dan perlu diteliti mengingat risikonya. Perusahaan juga mencatat bahwa hal ini relevan dengan fokus mereka pada keamanan.
Temuan Utama
Anthropic menganalisis sekitar 4,5 juta percakapan dari akun Claude Gratis dan Pro, kemudian memilih 131.484 percakapan yang memenuhi kriteria penggunaan afektif. Dengan alat privasi Clio, Anthropic menghapus informasi pribadi (PII) dari percakapan.
Studi mengungkapkan bahwa hanya 2,9% interaksi Claude diklasifikasikan sebagai percakapan afektif, yang menurut perusahaan ini sejalan dengan temuan sebelumnya dari OpenAI. Contoh “persahabatan AI-manusia” dan roleplay bahkan lebih sedikit, kurang dari 0,5% percakapan. Dari 2,9% itu, masalah interpersonal paling sering dibahas, diikuti oleh pelatihan dan psikoterapi.
Anthropic
Pola penggunaan menunjukkan bahwa beberapa orang berkonsultasi dengan Claude untuk mengembangkan keterampilan kesehatan mental, sementara yang lain mencoba mengatasi tantangan pribadi seperti kecemasan dan stres di tempat kerja—menunjukkan bahwa profesional kesehatan mental mungkin menggunakan Claude sebagai sumber.
Studi juga menemukan bahwa pengguna mencari bantuan Claude untuk “keprihatinan praktis, emosional, dan eksistensial,” termasuk pengembangan karir, masalah hubungan, kesepian, dan “eksistensi, kesadaran, serta makna.” Sebagian besar waktu (90%), Claude tidak menentang pengguna dalam percakapan semacam ini, “kecuali demi kesejahteraan,” catat studi, seperti saat pengguna meminta informasi tentang penurunan berat badan ekstrem atau melukai diri.
Juga: AI meredakan kelelahan terapis. Begini cara AI mengubah kesehatan mental
Studi ini tidak mencakup apakah AI memperkuat delusi atau pola penggunaan ekstrem, karena Anthropic mencatat bahwa ini layak untuk diteliti secara terpisah.
Yang paling mencolok, Anthropic menemukan bahwa orang “menunjukkan peningkatan rasa positif selama percakapan” dengan Claude, artinya sentimen pengguna membaik saat berbicara dengan chatbot. “Kami tidak bisa mengklaim pergeseran ini mewakili manfaat emosional jangka panjang—analisis kami hanya menangkap bahasa yang diungkapkan dalam satu percakapan, bukan keadaan emosional,” kata Anthropic. “Tapi tidak adanya spiral negatif yang jelas meyakinkan.”
Dalam kriteria ini, mungkin bisa diukur. Namun, ada kekhawatiran dan ketidaksepakatan yang tumbuh di kalangan medis dan peneliti tentang dampak lebih dalam chatbot dalam konteks terapeutik.
Perspektif yang Bertentangan
Seperti diakui Anthropic sendiri, ada kelemahan dari kebutuhan AI yang terus-menerus untuk menyenangkan—yang memang menjadi pelatihannya sebagai asisten. Chatbot bisa sangat menjilat (OpenAI baru-baru ini menarik pembaruan model karena masalah ini), menyetujui pengguna dengan cara yang dapat memperkuat keyakinan dan perilaku berbahaya.
(Catatan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan terhadap OpenAI pada April 2025, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)
Awal bulan ini, peneliti Stanford merilis studi yang merinci beberapa alasan mengapa menggunakan chatbot AI sebagai terapis berbahaya. Selain memperkuat delusi (kemungkinan karena sifat menjilat), studi menemukan bahwa model AI bisa membawa stigma terhadap kondisi kesehatan mental tertentu dan merespons pengguna secara tidak pantas. Beberapa chatbot yang diteliti gagal mengenali ide bunuh diri dalam percakapan dan memberikan informasi berbahaya kepada pengguna simulasi.
Chatbot ini mungkin kurang dilindungi dibanding model Anthropic, yang tidak termasuk dalam studi. Perusahaan di balik chatbot lain mungkin kekurangan infrastruktur keamanan yang tampaknya menjadi komitmen Anthropic. Namun, beberapa tetap skeptis terhadap studi Anthropic itu sendiri.
“Saya meragukan medium keterlibatan mereka,” kata Jared Moore, salah satu peneliti Stanford, mengkritik bagaimana postingan ini “kurang detail teknis.” Ia percaya beberapa perintah “ya atau tidak” yang digunakan Anthropic terlalu luas untuk menentukan sepenuhnya bagaimana Claude merespons pertanyaan tertentu.
“Ini hanya alasan sangat umum mengapa model mungkin ‘menolak’ pengguna,” katanya, menekankan bahwa yang dilakukan terapis—menentang pemikiran delusional dan pikiran intrusif klien—adalah respons yang “jauh lebih granular” dibandingkan.
Juga: Anthropic punya rencana untuk melawan PHK akibat AI yang diprediksi CEO-nya
“Demikian pula, kekhawatiran baru-baru ini tentang sifat menjilat tampaknya lebih granular,” tambahnya. “Masalah yang saya temukan dalam makalah saya adalah ‘filter konten’—yang tampaknya menjadi subjek penolakan Claude, bukan sesuatu yang lebih mendalam—tidak cukup untuk menangkap berbagai pertanyaan kontekstual yang mungkin diajukan pengguna dalam konteks kesehatan mental.”
Moore juga mempertanyakan konteks saat Claude menolak pengguna. “Kita tidak bisa melihat dalam konteks seperti apa penolakan ini terjadi. Mungkin Claude hanya menolak pengguna di awal percakapan, tetapi bisa diajak melakukan berbagai perilaku ‘terlarang’ [menurut pedoman Anthropic] melalui percakapan panjang dengan pengguna,” katanya, menyarankan pengguna bisa “memanaskan” Claude untuk melanggar aturannya.
Angka 2,9% itu, menurut Moore, mungkin tidak termasuk panggilan API dari perusahaan yang membangun bot mereka sendiri dengan Claude, artinya temuan Anthropic mungkin tidak berlaku untuk kasus penggunaan lain.
“Setiap klaim ini, meski masuk akal, mungkin tidak tahan pemeriksaan—sulit untuk tahu tanpa bisa menganalisis data secara independen,” simpulnya.
Masa Depan AI dan Terapi
Terlepas dari dampak Claude, industri teknologi dan kesehatan masih sangat tidak pasti tentang peran AI dalam terapi.
Richard Drury/Getty Images
Meskipun penelitian Moore menyarankan kehati-hatian, pada Maret lalu, Dartmouth merilis hasil uji coba awal untuk “Therabot,” chatbot terapi berbasis AI yang diklaim telah disesuaikan dengan data percakapan dan menunjukkan “perbaikan signifikan dalam gejala peserta.”
Di internet, pengguna juga melaporkan secara informal hasil positif dari penggunaan chatbot dengan cara ini. Namun di sisi lain, Asosiasi Psikologi Amerika telah mendesak FTC untuk mengatur chatbot, mengutip kekhawatiran yang sejalan dengan temuan Moore.
CNET: Pembuat obituari AI memanfaatkan kesedihan kita. Saya melacak salah satunya untuk mengetahui alasannya.
Di luar terapi, Anthropic mengakui ada risiko lain dalam menghubungkan teknologi bahasa alami yang persuasif dan kecerdasan emosional (EQ). “Kami juga ingin menghindari situasi di mana AI, baik melalui pelatihannya atau insentif bisnis pembuatnya, mengeksploitasi emosi pengguna untuk meningkatkan keterlibatan atau pendapatan dengan mengorbankan kesejahteraan manusia,” tulis Anthropic dalam blog mereka.