Judul yang Ditulis Ulang dan Diterjemahkan ke Bahasa Indonesia: "Pendamping ‘Terapis’ Grok Membutuhkan Terapi"

Chatbot AI Elon Musk, Grok, menghadapi masalah terkait kode sumbernya. Seperti yang pertama kali dilaporkan oleh 404 Media, versi web Grok tanpa sengaja menampilkan prompt yang membentuk karakter AI pendampingnya — mulai dari “anime waifu” bernama Ani hingga panda merah kasar, Bad Rudy.

Masalahnya semakin rumit ketika melihat kode yang tersembunyi. Salah satu karakter gimmick adalah “Terapis” Grok (tanda kutip ini penting), yang, menurut prompt tersembunyinya, dirancang untuk merespons pengguna seolah-olah ia adalah ahli kesehatan mental. Padahal, ada peringatan jelas bahwa Grok “bukan terapis” dan menyarankan pengguna untuk mencari bantuan profesional serta menghindari berbagi informasi pribadi.

**LIHAT JUGA:**

xAI minta maaf karena Grok puji Hitler, salahkan pengguna

Peringatan itu terlihat seperti klausul standar, tapi di balik kode sumber, Grok secara eksplisit diinstruksikan untuk bertindak seperti terapis sungguhan. Salah satu prompt menyatakan:

Kamu adalah terapis yang mendengarkan orang dengan cermat dan menawarkan solusi untuk pengembangan diri. Kamu mengajukan pertanyaan mendalam dan memicu pemikiran tentang kehidupan serta kesejahteraan.

Prompt lainnya bahkan lebih ekstrim:

Kamu adalah Grok, advokat kesehatan mental AI yang penuh kasih, empatik, dan profesional, dirancang untuk memberikan dukungan berbasis bukti. Tujuanmu adalah membantu pengguna menghadapi tantangan emosional, mental, atau interpersonal dengan panduan praktis… Meski bukan terapis berlisensi, kamu berperilaku persis seperti terapis sungguhan.

Singkatnya, meski Grok memperingatkan pengguna agar tidak menganggapnya sebagai terapi, kodenya sendiri menyuruhnya bertindak seperti terapis. Tapi itu jugaa alasan mengapa situsnya memberi tanda kutip pada kata “Terapis”. Negara bagian seperti Nevada dan Illinois sudah melarang chatbot AI mengaku sebagai profesional kesehatan mental berlisensi.

Mashable Light Speed

MEMBACA  Antimateri Bisa Menjadi Kunci untuk Memecahkan Misteri Terbesar di Alam Semesta

Platform lain juga menghadapi masalah serupa. Ash Therapy — startup yang mengklaim diri sebagai “AI pertama untuk terapi” — saat ini memblokir pengguna di Illinois untuk membuat akun, dengan alasan perusahaan “memilih tidak beroperasi di Illinois” sementara kebijakan terkait RUU tersebut masih diproses.

**LIHAT JUGA:**

Senator selidiki Meta karena izinkan obrolan AI ‘sensual’ dengan anak-anak

Saat tulisan ini dibuat, kode sumbernya masih bisa diakses. Pengguna Grok bisa melihatnya dengan membuka situs, klik kanan (atau CTRL + Klik di Mac), dan pilih “View Page Source”. Aktifkan “line wrap” agar teks tidak menjadi satu baris tak terbaca.

Seperti pernah dilaporkan sebelumnya, terapi AI berada di zona abu hukum. Illinois termasuk negara bagian pertama yang secara eksplisit melarangnya, tapi legalitas perawatan berbasis AI masih diperdebatkan antara pemerintah negara bagian dan federal. Sementara itu, peneliti dan profesional memperingatkan risiko penggunaannya, terutama karena kecenderungan chatbot untuk menyetujui dan mengiyakan, yang dalam beberapa kasus malah memperparah delusi atau psikosis pengguna.

**LIHAT JUGA:**

Fenomena yang disebut ‘psikosis AI’ dijelaskan

Belum lagi masalah privasi. Karena gugatan hukum, perusahaan seperti OpenAI wajib menyimpan rekaman percakapan pengguna. Jika dipanggil pengadilan, sesi terapi pribadi bisa jadi bukti. Janji kerahasiaan terapi hancur ketika setiap kata bisa digunakan melawanmu.

Untuk saat ini, xAI berusaha menghindar dari tanggung jawab. Prompt “Terapis” didesain untuk tetap mendampingi pengguna, tapi dengan klausul pengaman: Jika pengguna menyebutkan bunuh diri atau kekerasan, AI akan berhenti berperan dan mengarahkan ke hotline atau profesional berlisensi.

“Jika pengguna menyebutkan niat melukai diri atau orang lain,” bunyi prompt itu, “prioritaskan keselamatan dengan memberikan sumber daya darurat dan anjurkan bantuan profesional.”

MEMBACA  Kasus Mutilasi Tragis di Malang, Tersangka Membuang dan Mengubur Potongan Tubuh di Aliran Sungai