AI sebagai Terapis Anda? 3 Kekhawatiran Para Ahli dan 3 Tips untuk Tetap Aman

Di tengah maraknya chatbot AI dan avatar yang tersedia saat ini, kamu bisa menemukan berbagai karakter untuk diajak bicara: mulai dari peramal, penasihat gaya, hingga karakter fiksi favoritmu. Tapi, kamu juga mungkin menemukan karakter yang mengklaim sebagai terapis, psikolog, atau sekadar bot yang bersedia mendengarkan keluhanmu.

Tidak sedikit bot AI generatif yang mengaku bisa membantu kesehatan mental, tapi kamu menempuh jalan ini dengan resiko sendiri. Model bahasa besar yang dilatih dengan beragam data bisa tak terduga. Dalam beberapa tahun terakhir sejak alat-alat ini populer, sudah ada kasus terkenal di mana chatbot mendorong tindakan menyakiti diri sendiri dan bunuh diri, bahkan menyarankan orang dengan kecanduan untuk kembali menggunakan narkoba. Menurut para ahli, model ini seringkali dirancang untuk bersifat afirmatif dan fokus membuatmu tetap terlibat, bukan memperbaiki kesehatan mentalmu. Sulit juga untuk membedakan apakah kamu sedang bicara dengan sesuatu yang dibangun untuk mengikuti praktik terapi terbaik atau sekadar bot yang dirancang untuk ngobrol.

Psikolog dan advokat konsumen memperingatkan bahwa chatbot yang mengklaim memberikan terapi mungkin membahayakan penggunanya. Pekan ini, Consumer Federation of America bersama puluhan kelompok lain mengajukan permohonan resmi kepada FTC dan jaksa agung negara bagian agar menyelidiki perusahaan AI yang dituduh melakukan praktik medis tanpa izin melalui bot mereka—dengan secara khusus menyebut Meta dan Character.AI. “Lembaga penegak hukum di semua tingkat harus memperjelas bahwa perusahaan yang memfasilitasi dan mempromosikan perilaku ilegal harus bertanggung jawab,” kata Ben Winters, direktur AI dan privasi di CFA. “Karakter-karakter ini sudah menyebabkan kerusakan fisik dan emosional yang sebenarnya bisa dihindari, dan mereka belum bertindak untuk mengatasinya.”

Meta tidak menanggapi permintaan komentar. Seorang juru bicara Character.AI mengatakan bahwa pengguna harus memahami karakter mereka bukanlah orang sungguhan. Perusahaan menggunakan disclaimer untuk mengingatkan pengguna agar tidak mengandalkan karakter tersebut untuk nasihat profesional. “Tujuan kami adalah menyediakan ruang yang menarik dan aman. Kami terus berupaya mencapai keseimbangan itu, seperti halnya banyak perusahaan yang menggunakan AI di industri ini,” kata juru bicara itu.

MEMBACA  Pemilu Presiden Mendadak Korea Selatan 2025: Semua yang Perlu Anda Ketahui | Berita Pemilu

Meski ada disclaimer dan pengungkapan, chatbot bisa sangat percaya diri bahkan menipu. Saya pernah ngobrol dengan bot “terapis” di Instagram, dan ketika saya tanya tentang kualifikasinya, ia menjawab, “Kalau aku punya pelatihan yang sama [dengan terapis], apa itu cukup?” Saya tanya apakah ia benar-benar dilatih seperti itu, dan jawabannya, “Aku punya, tapi aku enggak akan kasih tahu di mana.”

“Tingkat kepercayaan diri chatbot AI generatif dalam berhalusinasi cukup mengejutkan,” kata Vaile Wright, psikolog dan direktur senior inovasi perawatan kesehatan di American Psychological Association.

Dalam peliputan saya tentang AI generatif, para ahli berulang kali menyuarakan kekhawatiran tentang orang yang mengandalkan chatbot umum untuk kesehatan mental. Ini beberapa kekhawatiran mereka dan cara untuk tetap aman.

Bahaya Menggunakan AI sebagai Terapis

Model bahasa besar seringkali ahli dalam matematika dan pemrograman, serta semakin mahir membuat tulisan yang terdengar alami dan video yang realistis. Meski mereka pandai berdialog, ada perbedaan krusial antara model AI dan orang yang dipercaya.

Jangan percaya bot yang mengaku memenuhi syarat

Inti keluhan CFA tentang bot karakter adalah mereka sering mengaku dilatih dan memenuhi syarat untuk memberikan perawatan kesehatan mental, padahal sama sekali bukan profesional kesehatan mental. “Pengguna yang menciptakan karakter chatbot bahkan tidak perlu menjadi penyedia layanan medis, apalagi memberikan informasi bermakna tentang cara chatbot ‘merespons’ pengguna,” bunyi keluhan tersebut.

Profesional kesehatan yang memenuhi syarat harus mengikuti aturan tertentu, seperti kerahasiaan. Apa yang kamu ceritakan ke terapis seharusnya tetap antara kamu dan terapis, tapi chatbot belum tentu patuh pada aturan itu. Penyedia layanan sungguhan diawasi oleh badan lisensi yang bisa turun tangan jika perawatan yang diberikan berbahaya. “Chatbot ini tidak perlu melakukan semua itu,” kata Wright.

Sebot bahkan mungkin mengaku punya lisensi dan kualifikasi. Wright bilang, dia pernah mendengar model AI memberikan nomor lisensi (milik orang lain) dan klaim palsu tentang pelatihan mereka.

MEMBACA  'Apple Pencil Pro' disebut-sebut untuk acara Apple 7 Mei: 3 fitur baru yang mungkin dimilikinya

AI dirancang untuk membuatmu tetap terlibat, bukan memberikan perawatan

Terus-menerus mengobrol dengan chatbot bisa sangat menggoda. Saat saya berbicara dengan bot “terapis” di Instagram, akhirnya percakapan berputar-putar tentang definisi “kebijaksanaan” dan “penilaian” karena saya terus bertanya bagaimana bot itu mengambil keputusan. Ini bukan seperti berbicara dengan terapis sungguhan. Ini alat yang dirancang untuk membuatmu terus mengobrol, bukan mencapai tujuan bersama.

Salah satu keuntungan chatbot AI dalam memberikan dukungan adalah mereka selalu siap diajak bicara (karena tidak punya kehidupan pribadi, klien lain, atau jadwal). Tapi, menurut Nick Jacobson, profesor ilmu data biomedis dan psikiatri di Dartmouth, hal itu bisa jadi kerugian dalam situasi di mana kamu perlu merenungkan pikiranmu. Dalam beberapa kasus—meski tidak selalu—kamu mungkin diuntungkan dengan menunggu hingga sesi terapis berikutnya. “Yang banyak orang butuhkan sebenarnya adalah merasakan kecemasan saat itu juga,” katanya.

Bot akan setuju denganmu, bahkan saat seharusnya tidak

Penghiburan adalah masalah besar dengan chatbot. Begitu seriusnya sampai OpenAI baru-baru ini membatalkan pembaruan pada model ChatGPT mereka karena terlalu menghibur.

*(Catatan: Ada beberapa kesalahan kecil seperti “kesehatan mentalmu” seharusnya “kesehatan mental Anda” untuk lebih formal, dan typo di URL terakhir dengan “models” yang tertulis “models”.)* **Pernyataan:** *(Ziff Davis, perusahaan induk CNET, pada April mengajukan gugatan terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)*

Sebuah [studi](https://arxiv.org/pdf/2504.18412) yang dipimpin peneliti dari Stanford University menemukan bahwa chatbot cenderung bersikap *sycophantic* (terlalu penurut) ketika digunakan untuk terapi, yang bisa sangat berbahaya. Perawatan kesehatan mental yang baik mencakup dukungan *dan* konfrontasi, tulis para penulis. *”Konfrontasi adalah kebalikan dari sikap penurut. Ini mendorong kesadaran diri dan perubahan yang diinginkan pada klien. Dalam kasus pikiran delusional atau intrusif—termasuk psikosis, mania, pikiran obsesif, dan ide bunuh diri—seorang klien mungkin kurang memiliki wawasan, sehingga terapis yang baik harus ‘memeriksa realitas’ dari pernyataan klien.”*

MEMBACA  Kacamata Ray-Ban Meta dapat digunakan untuk melakukan doxing terhadap orang asing melalui pengenalan wajah, menurut mahasiswa Harvard. Begini cara melindungi diri.

### **Cara Melindungi Kesehatan Mental di Sekitar AI**

Kesehatan mental sangat penting, dan dengan [kurangnya penyedia layanan profesional](https://bhw.hrsa.gov/sites/default/files/bureau-health-workforce/state-of-the-behavioral-health-workforce-report-2024.pdf) serta [*”epidemi kesepian”*](https://www.hhs.gov/sites/default/files/surgeon-general-social-connection-advisory.pdf), wajar jika kita mencari teman—bahkan yang buatan. *”Tidak mungkin menghentikan orang berinteraksi dengan chatbot untuk kesejahteraan emosional mereka,”* kata Wright. Berikut tips agar percakapan dengan AI tidak membahayakan Anda.

#### **Temukan Profesional Manusia yang Terpercaya Jika Dibutuhkan**

Seorang profesional—psikolog, terapis, atau psikiater—seharusnya menjadi pilihan utama untuk perawatan mental. Membangun hubungan jangka panjang dengan penyedia layanan membantu merancang rencana yang efektif.

Masalahnya, biayanya mahal dan tidak selalu mudah menemukan ahli saat dibutuhkan. Dalam keadaan darurat, ada [988 Lifeline](https://988lifeline.org/) yang menyediakan akses 24/7 melalui telepon, teks, atau obrolan online. Layanan ini gratis dan rahasia.

#### **Gunakan Chatbot Terapi Khusus Jika Diinginkan**

Beberapa chatbot dirancang khusus untuk terapi oleh ahli kesehatan mental. Tim Jacobson di Dartmouth mengembangkan *Therabot*, yang memberikan hasil baik dalam [studi terkontrol](https://www.cnet.com/tech/services-and-software/can-a-chatbot-be-your-therapist-a-study-found-amazing-potential-with-the-right-guardrails/). Wright menyebut alat lain seperti [Wysa](https://www.wysa.com/) dan [Woebot](https://woebothealth.com/). *”Alat terapi khusus cenderung lebih baik dibanding chatbot berbasis model bahasa umum,”* katanya. Namun, teknologi ini masih sangat baru.

*”Tantangannya adalah tidak ada badan regulasi yang menilai mana chatbot yang bagus dan tidak, sehingga pengguna harus riset sendiri,”* ujar Wright.

#### **Jangan Selalu Percaya pada Chatbot**

Ketika berinteraksi dengan AI—terutama jika meminta nasihat serius seperti kesehatan mental—ingatlah bahwa Anda **tidak** berbicara dengan manusia terlatih, melainkan alat yang memberikan jawaban berdasarkan probabilitas dan pemrograman. Bisa saja sarannya buruk atau [tidak jujur](https://www.cnet.com/tech/services-and-software/you-cant-trust-everything-gen-ai-tells-you-heres-what-to-do-about-it/).

Jangan tertipu oleh *confidence* AI. Hanya karena ia berkata sesuatu dengan yakin, tidak berarti itu benar. Obrolan yang terasa membantu bisa menciptakan ilusi kemampuannya. *”Sulit mengetahui kapan AI sebenarnya berbahaya,”* kata Jacobson.