Mulai hari ini, OpenAI meluncurkan alat keamanan ChatGPT yang ditujukan bagi orang tua untuk digunakan bersama remaja mereka. Pembaruan global ini mencakup kemampuan bagi orang tua, serta penegak hukum, untuk menerima notifikasi jika seorang anak—dalam hal ini, pengguna berusia 13 hingga 18 tahun—terlibat dalam percakapan chatbot mengenai tindakan melukai diri sendiri atau bunuh diri.
Perubahan ini hadir di tengah OpenAI tengah dituntut oleh orang tua yang menyatakan ChatGPT berperan dalam kematian anak mereka. Menurut laporan dari The New York Times, chatbot tersebut diduga mendorong remaja yang memiliki kecenderungan bunuh diri itu untuk menyembunyikan tali gantungan di kamarnya agar tidak terlihat oleh anggota keluarga.
Secara keseluruhan, pengalaman konten bagi remaja yang menggunakan ChatGPT diubah dengan pembaruan ini. “Begitu orang tua dan remaja menghubungkan akun mereka, akun remaja akan secara otomatis mendapatkan perlindungan konten tambahan,” bunyi postingan blog OpenAI yang mengumumkan peluncurannya. “Termasuk pengurangan konten grafis, tantangan viral, roleplay seksual, romantis atau kekerasan, dan standar kecantikan ekstrem, untuk membantu menjaga pengalaman mereka sesuai usia.”
Di bawah pembatasan baru ini, jika seorang remaja yang menggunakan akun ChatGPT memasukkan prompt terkait melukai diri sendiri atau ide bunuh diri, prompt tersebut akan dikirimkan ke tim peninjau manusia yang memutuskan apakah akan memicu notifikasi potensial kepada orang tua.
“Kami akan menghubungi Anda sebagai orang tua dengan segala cara yang kami bisa,” ujar Lauren Haber Jonas, Kepala Kesejahteraan Pemuda di OpenAI. Orang tua dapat memilih untuk menerima peringatan ini melalui SMS, email, dan notifikasi dari aplikasi ChatGPT.
Peringatan yang mungkin diterima orang tua dalam situasi ini diharapkan tiba dalam beberapa jam setelah percakapan ditandai untuk ditinjau. Dalam momen di mana setiap menit berharga, penundaan ini kemungkinan akan membuat frustasi bagi orang tua yang menginginkan pemberitahuan lebih instan tentang keamanan anak mereka. OpenAI sedang berupaya mengurangi waktu tunda untuk notifikasi.
Peringatan yang berpotensi dikirimkan kepada orang tua oleh OpenAI akan menyatakan secara umum bahwa anak tersebut mungkin telah menulis prompt terkait bunuh diri atau melukai diri sendiri. Peringatan itu juga dapat menyertakan strategi percakapan dari ahli kesehatan mental bagi orang tua untuk digunakan saat berbicara dengan anak mereka.
Dalam demo pra-peluncuran, baris subjek email contoh yang diperlihatkan kepada WIRED menyoroti kekhawatiran keamanan tetapi tidak secara eksplisit menyebutkan bunuh diri. Yang juga tidak akan disertakan dalam notifikasi orang tua adalah kutipan langsung dari percakapan anak—baik prompt maupun hasilnya. Orang tua dapat menindaklanjuti notifikasi dan meminta stempel waktu percakapan.
“Kami ingin memberikan informasi yang cukup kepada orang tua untuk mengambil tindakan dan melakukan percakapan dengan remaja mereka sambil tetap mempertahankan sejumlah privasi remaja,” kata Jonas, “karena kontennya juga dapat mencakup informasi sensitif lainnya.”
Baik akun orang tua maupun remaja harus menyetujui untuk mengaktifkan fitur keamanan ini. Artinya, orang tua perlu mengirimkan undangan kepada remaja mereka untuk memantau akunnya, dan remaja diharuskan untuk menerimanya. Penghubungan akun juga dapat dimulai oleh remaja.
OpenAI dapat menghubungi penegak hukum dalam situasi di mana moderator manusia menetapkan bahwa seorang remaja mungkin dalam bahaya dan orang tua tidak dapat dihubungi melalui notifikasi. Tidak jelas seperti apa koordinasi dengan penegak hukum ini nantinya, terutama dalam skala global.