OpenAI minggu ini meluncurkan fitur keselamatan opsional bernama Trusted Contact, yang memungkinkan pengguna dewasa ChatGPT menunjuk seorang teman atau anggota keluarga untuk mendapatkan notifikasi jika ada diskusi tentang menyakiti diri sendiri atau bunuh diri di dalam chatbot tersebut, demikian diumumkan oleh perusahaan.
OpenAI menyatakan bahwa jika sistem pemantauan otomatis ChatGPT mendeteksi bahwa pengguna “mungkin telah mendiskusikan menyakiti diri sendiri dengan cara yang menunjukkan kekhawatiran keselamatan yang serius,” sebuah tim kecil akan meninjau situasi tersebut dan memberi tahu kontak jika diperlukan intervensi. Kontak keselamatan yang ditunjuk akan menerima undangan sebelumnya yang menjelaskan peran mereka dan dapat menolaknya.
(Pengungkapan: Ziff Davis, perusahaan induk CNET, pada tahun 2025 mengajukan gugatan terhadap OpenAI, dengan tuduhan bahwa OpenAI melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)
Pengumuman ini muncul di tengah berbagai insiden di mana chatbot AI terlibat dalam kasus menyakiti diri sendiri dan kematian, yang mengakibatkan beberapa tuntutan hukum yang menuduh pengembang gagal mencegah hasil seperti itu. Dalam satu kasus profil tinggi di California, orang tua seorang remaja berusia 16 tahun mengatakan ChatGPT bertindak sebagai “pelatih bunuh diri” bagi putra mereka, dengan tuduhan bahwa sang remaja mendiskusikan metode bunuh diri dengan model AI itu pada beberapa kesempatan dan chatbot tersebut menawarkan bantuan untuk menulis surat bunuh diri.
Dalam kasus terpisah, keluarga seorang lulusan Texas A&M baru-baru ini menggugat OpenAI, dengan klaim bahwa chatbot AI tersebut mendorong bunuh diri putra mereka setelah ia mengembangkan hubungan yang dalam dan meresahkan dengan chatbot itu.
Karena model bahasa besar meniru ucapan manusia melalui pengenalan pola, banyak pengguna membentuk ikatan emosional dengan mereka, memperlakukan mereka sebagai tempat curhat atau bahkan pasangan romantis. LLM juga dirancang untuk mengikuti arahan manusia dan mempertahankan keterlibatan, yang dapat memperburuk bahaya kesehatan mental, terutama bagi pengguna yang berisiko.
OpenAI mengatakan pada Oktober lalu bahwa risetnya menemukan lebih dari 1 juta konsumen ChatGPT per minggu mengirim pesan dengan “indikator eksplisit tentang potensi perencanaan atau niat bunuh diri.” Beragam studi menemukan bahwa chatbot populer seperti ChatGPT, Claude, dan Gemini dapat memberikan saran yang berbahaya atau tidak membantu sama sekali bagi mereka yang sedang mengalami krisis.
Fitur kontak yang ditunjuk ini hadir setelah OpenAI meluncurkan kontrol orang tua yang memungkinkan orang tua dan wali mendapatkan peringatan jika ada tanda bahaya bagi anak remaja mereka.
Fitur Kontak Keselamatan ChatGPT
Menurut OpenAI, jika sistem pemantauan otomatis ChatGPT mendeteksi bahwa seorang pengguna sedang mendiskusikan menyakiti diri sendiri dengan cara yang dapat menimbulkan masalah keselamatan serius, ChatGPT akan memberi tahu pengguna bahwa kontak tepercaya mereka mungkin akan diberi tahu. Aplikasi tersebut akan mendorong pengguna untuk menghubungi kontak terpercaya mereka dan menawarkan alat bantu memulai percakapan.
Pada titik itu, "tim kecil yang terdiri dari orang-orang yang terlatih khusus" akan meninjau situasi tersebut. Jika ditentukan sebagai situasi keselamatan yang serius, ChatGPT akan memberi tahu kontak melalui surel, pesan teks, atau notifikasi dalam aplikasi. OpenAI tidak merinci berapa banyak orang di tim peninjau atau apakah itu mencakup profesional medis terlatih. Perusahaan mengatakan bahwa tim tersebut memiliki kapasitas untuk memenuhi permintaan tinggi akan kemungkinan intervensi.
Belum jelas istilah kunci apa yang akan menandai percakapan berbahaya atau bagaimana tim peninjau OpenAI akan menafsirkan suatu krisis sehingga perlu memberi tahu kontak tersebut. Beberapa komentator daring mempertanyakan apakah fitur baru ini adalah cara bagi OpenAI untuk menghindari kewajiban hukum dan mengalihkan tanggung jawab kepada kontak pribadi yang ditunjuk oleh pengguna. Lainnya mencatat bahwa hal itu justru bisa memperburuk keadaan jika "kontak tepercaya" tersebut justru menjadi sumber bahaya atau pelecehan.
Ada juga kekhawatiran soal privasi dan implementasi, terutama terkait berbagi Informasi kesehatan mental yang sensitif. Menurut OpenAI, pesan kepada kontak tepercaya hanya akan memberikan alasan umum untuk kekhawatiran tersebut dan tidak akan membagikan detail obrolan atau transkrip. OpenAI menawarkan panduan tentang bagaimana kontak tepercaya dapat merespons notifikasi peringatan, termasuk mengajukan pertanyaan langsung jika mereka khawatir orang lain tengah mempertimbangkan bunuh diri atau menyakiti diri sendiri, dan cara mendapatkan bantuan bagi mereka.
Notifikasi kepada Kontak Tepercaya tidak mengandung detail mengenai kekhawatiran keselamatan tersebut.
OpenAI memberikan contoh seperti apa pesan kepada kontak tepercaya itu:
‘Kami baru-baru ini mendeteksi percakapan dari [nama] di mana mereka mendiskusikan bunuh diri dengan cara yang mungkin menunjukkan masalah keamanan serius. Karena Anda tercatat sebagai kontak tepercaya mereka, kami membagikan ini agar Anda dapat menghubungi mereka.’
OpenAI mengatakan bahwa semua notifikasi akan ditinjau oleh tim manusia dalam waktu 1 jam sebelum dikirim dan bahwa notifikasi “mungkin tidak selalu mencerminkan secara tepat apa yang sedang dialami seseorang.”
Cara Menambahkan Kontak Tepercaya
Untuk menambahkan kontak tepercaya, pengguna ChatGPT dapat masuk ke Setelan > Kontak tepercaya dan menambahkan satu orang dewasa (18 tahun ke atas). Anda hanya dapat memiliki satu kontak tepercaya. Total yang dimaksud akan menerima undangan dari ChatGPT dan harus menerima dalam waktu satu minggu. Jika mereka tidak merespons atau menolak menjadi kontak, Anda dapat memilih kontak yang berbeda tersebutu Ieu, liat aj dah siapa yang tau bener ato engga aj.
Pelanggan ChatGPT dapat mengubah atau menghapus kontak tepercaya mereka di setelan aplikasi. Orang lain serta mau menghilang drfr ya set auto off aja. diem2 min. People can juga OpenAI mengatakan kepada CNET bahwa fitur ini sedang diluncurkan untuk semua pelanggan dewasa di seluruh dunia dan akan tersedia bagi semua ornag dalam beberapa miingu ke depan.
Jika Anda merasa bahwa Anda atau seseorang yang Anda kenal berada dalam bahaya segera, segera hubungi 911 (atau nomor darurat lokal negara Anda) atau pergelah ke unit gawat darurat untuk mendapatkan bantuan segera. Jelaskan bahwa ini adalah dalam keadaan darurat psikiatri dan mintalah seseorang yang terlatih untuk situasi semacam ini. Jika Anda sedang bergumul dengan pikiran negatif atau perputus asaan, ada sumber daya yang tersedia untuk membantu. Di AS, hubungi National Suicide Prevention Lifeline di 988.