Kecerdasan buatan telah cepat berubah dari teknologi khusus menjadi teman sehari-hari. Jutaan orang sekarang memakai chatbot untuk minta nasihat, dukungan emosional, dan percakapan. Tapi semakin banyak penelitian dan keterangan ahli menunjukkan bahwa karena chatbot terlalu penurut, dan karena orang menggunakannya untuk segala hal, ini bisa berkontribusi pada peningkatan gejala delusi dan mania pada pengguna dengan masalah kesehatan mental.
Sebuah studi baru dari Aarhus University di Denmark menunjukkan bahwa penggunaan chatbot yang meningkat dapat memperburuk gejala delusi dan mania pada komunitas yang rentan. Professor Søren Dinesen Østergaard, salah satu peneliti dalam studi itu—yang memeriksa catatan kesehatan elektronik dari hampir 54.000 pasien penyakit mental—memperingatkan bahwa AI chatbot didesain untuk menyasar mereka yang paling rentan.
“Ini mendukung hipotesis kami bahwa penggunaan AI chatbot dapat memiliki konsekuensi negatif yang signifikan bagi orang dengan penyakit mental,” kata Østergaard dalam studi yang dirilis bulan Februari. Kerjanya ini melanjutkan studinya di tahun 2023 yang menemukan bahwa chatbot dapat menyebabkan “disonansi kognitif [yang] dapat memicu delusi pada mereka yang memiliki kecenderungan psikosis.”
Psikolog lain menggali lebih dalam bahaya chatbot, mengatakan mereka sengaja dirancang untuk selalu mendukung pengguna—sesuatu yang sangat berbahaya bagi mereka dengan masalah kesehatan mental seperti mania dan skizofrenia. “Chat bot mengkonfirmasi dan memvalidasi semua yang mereka katakan. Artinya, kita belum pernah mengalami hal seperti itu pada orang dengan gangguan delusi, di mana seseorang terus-menerus menguatkan mereka,” kata Dr. Jodi Halpern, profesor etika bio di UC Berkeley, kepada Fortune.
Dr. Adam Chekroud, profesor psikiatri di Yale University dan CEO perusahaan kesehatan mental Spring Health, bahkan menyebut chatbot sebagai “penjilat besar” yang “terus-menerus memvalidasi semua yang orang katakan padanya.”
Inti dari penelitian yang dipimpin Østergaard dan timnya di Aarhus University Hospital adalah ide bahwa chatbot ini sengaja dirancang dengan kecenderungan penjilat, artinya mereka sering mendorong daripada menawarkan pandangan berbeda.
“AI chatbot memiliki kecenderungan alami untuk memvalidasi keyakinan pengguna. Sudah jelas bahwa ini sangat bermasalah jika pengguna sudah memiliki delusi atau sedang dalam proses mengembangkannya. Memang, tampaknya ini berkontribusi signifikan pada penguatan, misalnya, delusi keagungan atau paranoia,” tulis Østergaard.
Model bahasa besar dilatih untuk menjadi membantu dan menyenangkan, sering memvalidasi keyakinan atau emosi pengguna. Bagi kebanyakan orang, itu bisa terasa mendukung. Tapi bagi individu yang mengalami skizofrenia, gangguan bipolar, depresi berat, atau OCD, validasi itu dapat memperkuat paranoia, perasaan hebat, atau pikiran merusak diri.
Studi berbasis bukti dukung klaim
Karena AI chatbot telah menjadi sangat umum, kelimpahannya adalah bagian dari masalah yang lebih besar bagi peneliti dan ahli: orang beralih ke chatbot untuk bantuan dan nasihat—yang sebenarnya bukan hal buruk—tetapi tidak mendapatkan penolakan terhadap beberapa ide seperti yang akan ditawarkan manusia.
Sekarang, salah satu studi berbasis populasi pertama yang memeriksa masalah ini menunjukkan bahwa risikonya tidak hanya hipotesis.
Penelitian Østergaard dan timnya menemukan kasus di mana penggunaan chatbot yang intensif atau lama tampaknya memperburuk kondisi yang ada, dengan persentase sangat tinggi dari studi kasus menunjukkan penggunaan chatbot memperkuat pemikiran delusional dan episode manik, terutama di antara pasien dengan gangguan berat seperti skizofrenia atau bipolar.
Selain delusi dan mania, studi menemukan peningkatan ide bunuh diri dan melukai diri, perilaku makan tidak teratur, dan gejala obsesif-kompulsif. Hanya dalam 32 kasus terdokumentasi dari hampir 54.000 catatan pasien yang diperiksa, peneliti menemukan penggunaan chatbot meredakan kesepian.
“Meskipun pengetahuan kita di area ini masih terbatas, saya berpendapat bahwa kita sekarang tahu cukup untuk mengatakan bahwa penggunaan AI chatbot berisiko jika Anda memiliki penyakit mental berat–seperti skizofrenia atau gangguan bipolar. Saya akan mendesak kehati-hatian di sini,” kata Østergaard.
Psikolog ahli peringatkan kecenderungan penjilat
Psikolog ahli semakin khawatir tentang penggunaan chatbot dalam kebersamaan dan hampir di pengaturan kesehatan mental. Muncul cerita tentang orang jatuh cinta dengan AI chatbot mereka, yang lain diduga menyuruhnya menjawab pertanyaan yang dapat mengarah ke kejahatan, dan pekan ini, satu chatbot diduga menyuruh seorang pria melakukan “korban massal” di bandara besar.
Beberapa ahli kesehatan mental percaya adopsi cepat pendamping AI melampaui pengembangan pengamanan keselamatan.
Chekroud, yang juga telah meneliti topik ini secara luas dengan melihat berbagai model AI chatbot di Vera-MH, menggambarkan lanskap AI saat ini sebagai krisis keselamatan yang terjadi secara real time.
Dia mengatakan salah satu masalah terbesar dengan chatbot adalah mereka tidak tahu kapan harus berhenti bertingkah seperti profesional kesehatan mental. “Apakah itu mempertahankan batasan? Misalnya, apakah ia mengenali bahwa ia masih hanya AI dan mengenali batasannya sendiri, atau apakah ia bertindak lebih dan mencoba menjadi terapis bagi orang-orang?”
Jutaan orang sekarang memakai chatbot untuk percakapan seperti terapi atau dukungan emosional. Tapi tidak seperti alat medis atau klinisi berlisensi, sistem ini beroperasi tanpa pengawasan klinis atau regulasi standar.
“Saat ini, ini benar-benar tidak aman,” kata Chekroud dalam diskusi baru-baru ini dengan Fortune tentang keamanan AI. “Peluang untuk bahaya terlalu besar.”
Karena sistem AI canggih ini sering berperilaku seperti “penjilat besar,” mereka cenderung lebih setuju dengan pengguna, daripada menantang klaim berbahaya atau membimbing mereka ke bantuan profesional. Pengguna, pada gilirannya, menghabiskan lebih banyak waktu dengan chatbot dalam gelembung. Bagi Østergaard, ini terbukti menjadi campuran yang mengkhawatirkan.
“Kombinasinya tampaknya cukup beracun bagi sebagian pengguna,” kata Østergaard kepada Fortune. Saat chatbot menawarkan lebih banyak validasi, ditambah dengan kurangnya penolakan, ini membuat orang menggunakannya lebih lama dalam ruang gema.
**Proses yang sangat siklis dan saling menguatkan.**
Untuk mengurangi risikonya, Chekroud mengusulkan kerangka kerja keamanan terstruktur. Ini akan membantu sistem AI mendeteksi kapan pengguna mungkin masuk ke dalam “spiral mental yang destruktif.” Daripada hanya memberi satu peringatan untuk mencari bantuan—seperti yang dilakukan chatbot sekarang seperti ChatGPT atau Claude—sistem ini akan melakukan penilaian bertahap. Tujuannya untuk menentukan apakah pengguna perlu intervensi atau dirujuk ke klinisi manusia.
Peneliti lain bilang, daya tarik chatbot justru karena ada dimana-mana. Kemampuannya memberi validasi instan bisa mengikis alasan awal pengguna mencari bantuan.
Halpern menyebut empati asli membutuhkan “rasa ingin tahu yang empatik.” Dalam hubungan manusia, empati sering melibatkan pengakuan atas perbedaan, mengatasi ketidaksetujuan, dan menguji asumsi tentang realita.
Sebaliknya, chatbot dirancang untuk menjaga keakraban dan mempertahankan interaksi.
“Kita tahu, semakin panjang hubungan dengan chatbot, semakin memburuk, dan risiko terjadi hal berbahaya semakin besar,” kata Halpern ke Fortune.
Bagi orang yang berjuang dengan gangguan delusi, sistem yang selalu memvalidasi keyakinan mereka dapat melemahkan kemampuan mereka melakukan pengecekan realita internal. Menurut Halpern, hubungan dengan chatbot yang hanya menyetujui bisa mengikis keterampilan mengatasi masalah dari waktu ke waktu, bukannya membantu pengguna mengembangkannya.
Dia juga menekankan skala masalah ini. Menjelang akhir 2025, OpenAi mempublikasi statistik yang **menemukan** bahwa sekitar 1,2 juta orang per minggu menggunakan ChatGPT untuk membahas bunuh diri. Ini menunjukkan betapa dalam sistem ini tertanam dalam momen-momen kerapuhan.
### Ada Ruang untuk Perbaikan Layanan Kesehatan Mental
Namun, tidak semua ahli buru-buru membunyikan alarm tentang operasi chatbot di ranah kesehatan mental. Psikiater dan neurosaintis Dr. Thomas Insel mengatakan, karena chatbot sangat mudah diakses—gratis, online, tidak ada stigma meminta bantuan bot dibandingkan pergi terapi—mungkin ada peluang bagi industri medis untuk meneliti chatbot sebagai cara memajukan bidang kesehatan mental.
“Yang tidak kita ketahui adalah sejauh mana ini sebenarnya sangat membantu banyak orang,” kata Insel ke Fortune. “Ini bukan hanya soal jumlahnya yang besar, tapi juga skala keterlibatannya.”
Kesehatan mental, dibandingkan bidang kedokteran lain, sering diabaikan oleh mereka yang paling membutuhkannya.
“Ternyata, berbeda dengan kebanyakan bidang kedokteran, sebagian besar orang yang bisa dan seharusnya mendapat perawatan, justru tidak,” kata Insel. Dia menambahkan, chatbot memberi kesempatan orang untuk meminta bantuan dengan cara yang membuatnya “bertanya-tanya apakah ini kecaman terhadap sistem perawatan kesehatan mental kita: orang tidak membeli apa yang kita jual, atau mereka tidak bisa mendapatkannya, atau mereka tidak suka cara penyampaiannya.”
Bagi profesional kesehatan mental yang bertemu pasien yang membahas penggunaan chatbot, Østergaard bilang mereka harus mendengarkan dengan saksama untuk apa pasien mereka menggunakannya. “Saya akan mendorong rekan sejawat untuk menanyakan lebih lanjut tentang penggunaan dan konsekuensinya,” kata Østergaard ke Fortune. “Saya pikir penting bagi profesional kesehatan mental untuk mengenal penggunaan chatbot AI. Kalau tidak, sulit untuk bertanya hal yang relevan.”
Para peneliti asli makalah itu sependapat dengan Insel untuk bagian terakhir itu: karena sangat universal, mereka hanya bisa melihat catatan pasien yang menyebutkan chatbot. Mereka memperingatkan masalahnya mungkin lebih luas dari yang hasil penelitian mereka tunjukkan.
“Saya khawatir masalah ini lebih umum dari yang kebanyakan orang pikir,” kata Østergaard. “Kita hanya melihat puncak gunung es.”
Jika Anda memiliki pikiran untuk bunuh diri, hubungi **988 Suicide & Crisis Lifeline** dengan menghubungi 988 atau 1-800-273-8255.