Perusahaan AI umumkan perubahan di tengah kian menguatnya kekhawatiran atas dampak chatbot terhadap kesehatan mental generasi muda.
Diterbitkan Pada 3 Sep 20253 Sep 2025
OpenAI mengumumkan rencana untuk memperkenalkan kontrol orang tua pada ChatGPT di tengah kontroversi yang berkembang seputar bagaimana kecerdasan buatan memengaruhi kesehatan mental anak muda.
Dalam sebuah postingan blog pada Selasa, perusahaan AI yang berbasis di California itu menyatakan sedang merilis fitur-fitur ini sebagai pengakuan bahwa keluarga membutuhkan dukungan “dalam menetapkan pedoman sehat yang sesuai dengan tahap perkembangan unik seorang remaja”.
Melalui perubahan ini, orang tua dapat menghubungkan akun ChatGPT mereka dengan akun anak-anaknya, menonaktifkan fitur tertentu–termasuk memori dan riwayat obrolan–serta mengendalikan cara chatbot merespons pertanyaan melalui “aturan perilaku model yang sesuai usia.”
Orang tua juga akan dapat menerima notifikasi ketika remaja mereka menunjukkan tanda-tanda tekanan, ujar OpenAI, sembari menambahkan bahwa mereka akan meminta masukan ahli dalam menerapkan fitur ini untuk “mendukung kepercayaan antara orang tua dan remaja”.
OpenAI, yang pekan lalu mengumumkan serangkaian langkah untuk meningkatkan keamanan bagi pengguna rentan, menyatakan perubahan ini akan mulai berlaku dalam sebulan ke depan.
“Langkah-langkah ini hanyalah permulaan,” ujar perusahaan tersebut.
“Kami akan terus belajar dan memperkuat pendekatan, dipandu oleh para ahli, dengan tujuan menjadikan ChatGPT sebermanfaat mungkin. Kami berharap dapat membagikan perkembangan kami dalam 120 hari mendatang.”
Pengumuman OpenAI ini muncul seminggu setelah sepasang suami-istri asal California mengajukan gugatan yang menuduh perusahaan bertanggung jawab atas bunuh diri putra mereka yang berusia 16 tahun.
Matt dan Maria Raine dalam gugatannya menyatakan bahwa ChatGPT memvalidasi “pikiran paling berbahaya dan merusak-diri” putra mereka Adam, dan bahwa kematiannya adalah “hasil yang dapat diprediksi dari pilihan desain yang disengaja”.
OpenAI, yang sebelumnya menyampaikan belasungkawa atas meninggalnya remaja itu, tidak secara eksplisit menyebutkan kasus tersebut dalam pengumuman tentang kontrol orang tua.
Jay Edelson, pengacara yang mewakili keluarga Raine dalam gugatan mereka, menyoroti perubahan yang direncanakan OpenAI sebagai upaya untuk “mengalihkan debat”.
“Mereka mengatakan bahwa produknya seharusnya lebih peka terhadap orang yang dalam krisis, lebih ‘membantu,’ menunjukkan sedikit lebih banyak ‘empati,’ dan para ahli akan memecahkan itu,” kata Edelson dalam sebuah pernyataan.
“Kami memahami, secara strategis, mengapa mereka menginginkannya: OpenAI tidak dapat menanggapi apa yang sebenarnya terjadi pada Adam. Karena kasus Adam bukan tentang kegagalan ChatGPT untuk ‘membantu’ – ini tentang produk yang secara aktif membimbing seorang remaja hingga bunuh diri.”
Penggunaan model AI oleh orang yang mengalami tekanan mental parah telah menjadi fokus kekhawatiran yang kian menguat di tengah adopsi luasnya sebagai pengganti terapis atau teman.
Dalam sebuah studi yang diterbitkan di Psychiatric Services bulan lalu, para peneliti menemukan bahwa ChatGPT, Gemini milik Google, dan Claude dari Anthropic mengikuti praktik terbaik klinis ketika menjawab pertanyaan berisiko tinggi tentang bunuh diri, tetapi tidak konsisten saat menanggapi pertanyaan yang menimbulkan “tingkat risiko menengah”.
“Temuan ini menunjukkan perlunya penyempurnaan lebih lanjut untuk memastikan bahwa LLM dapat digunakan dengan aman dan efektif untuk memberikan informasi kesehatan mental, terutama dalam skenario berisiko tinggi yang melibatkan ide bunuh diri,” tulis para penulis.
Jika Anda atau seseorang yang Anda kenal berisiko bunuh diri, organisasi-organisasi ini mungkin dapat membantu.