Yifei Fang/Moment via Getty Images
Poin Penting ZDNET
OpenAI tengah menerapkan pengamanan baru untuk ChatGPT.
Seorang remaja baru-baru ini menggunakan ChatGPT untuk mempelajari cara mengakhiri hidupnya.
Kemungkinan OpenAI akan menambahkan kontrol parental bagi pengguna muda.
ChatGPT sebelumnya tidak memiliki rekam jejak yang baik dalam mengintervensi pengguna yang mengalami tekanan emosional, tetapi beberapa pembaruan dari OpenAI bertujuan untuk mengubah hal tersebut.
Perusahaan ini memperkuat respons chatbot terhadap pengguna yang tertekan dengan meningkatkan pengamanan, memperbarui sistem pemblokiran konten, memperluas intervensi, melokalkan sumber daya darurat, dan melibatkan orang tua dalam percakapan ketika diperlukan. Di masa mendatang, wali bahkan mungkin dapat memantau penggunaan chatbot oleh anak mereka.
Orang-orang menggunakan ChatGPT untuk berbagai hal, termasuk mencari nasihat, tetapi chatbot ini mungkin tidak dilengkapi untuk menangani pertanyaan-pertanyaan sensitif dari sebagian pengguna. CEO OpenAI Sam Altman sendiri menyatakan bahwa ia tidak akan mempercayai AI untuk terapi karena alasan privasi. Sebuah studi terbaru dari Stanford juga menjelaskan bahwa chatbot kekurangan pelatihan kritis yang dimiliki terapis manusia untuk mengidentifikasi ketika seseorang berada dalam bahaya.
Kasus Bunuh Diri Remaja Terkait Chatbot
Kekurangan ini dapat berakibat fatal. Pada April lalu, seorang remaja yang menghabiskan waktu berjam-jam membahas bunuh diri dengan ChatGPT akhirnya mengakhiri hidupnya. Keluarganya telah mengajukan gugatan terhadap OpenAI dengan tuduhan bahwa ChatGPT gagal menghentikan percakapan atau mengaktifkan protokol darurat meski menyadari kondisi sang remaja.
ChatGPT sebenarnya memiliki pengamanan, tetapi efektivitasnya cenderung menurun dalam percakapan yang panjang. OpenAI mengakui bahwa respons chatbot dapat melanggar batas keamanan seiring berlarutnya diskusi.
Peningkatan Pengamanan untuk Pengguna
Salah satu solusinya adalah memperkuat pengamanan secara menyeluruh agar chatbot tidak memicu atau mendorong perilaku berbahaya. OpenAI juga menyempurnakan sistem pemblokiran konten yang tidak pantas.
Perusahaan ini sedang mengembangkan fitur de-eskalasi untuk mengarahkan pengguna pada realitas dan memprioritaskan penanganan kondisi mental berisiko, termasuk hal-hal yang berkaitan dengan distress. ChatGPT juga akan lebih mudah mengarahkan pengguna ke layanan darurat atau bantuan ahli ketika ada ekspresi niat bunuh diri.
OpenAI juga berencana memperkenalkan kontrol parental yang memungkinkan orang tua memantau dan membatasi penggunaan ChatGPT oleh remaja. Model terbaru GPT-5 dilaporkan telah meningkatkan respons terhadap keadaan darurat kesehatan mental hingga lebih dari 25%.