OpenAI secara langsung menargetkan para orang tua yang khawatir dengan mengumumkan rencana fitur pengawasan orangtua yang baru. Perusahaan ini menjelaskan dalam sebuah postingan blog terbaru bahwa mereka sedang mengembangkan alat yang lebih kuat untuk orangtua yang ingin membatasi interaksi tidak sehat dengan chatbot-nya, terutama setelah OpenAI menghadapi gugatan pertama atas kelalaian yang menyebabkan kematian seorang remaja California yang bunuh diri.
Fitur-fitur ini—yang akan dirilis bersama inisiatif kesehatan mental lainnya dalam 120 hari ke depan—termasuk penghubungan akun antara orangtua dan pengguna remaja serta kontrol yang lebih ketat atas interaksi chatbot. Para wali akan dapat mengatur cara ChatGPT merespons (sesuai dengan pengaturan "sesuai-usia" model) dan menonaktifkan riwayat obrolan serta memori.
OpenAI juga berencana menambahkan notifikasi untuk orangtua yang akan aktif ketika ChatGPT mendeteksi "momen tekanan emosional akut," ungkap perusahaan. Fitur ini masih dalam pengembangan bersama panel ahli OpenAI.
Selain opsi baru untuk orangtua, OpenAI menyatakan akan memperluas Jaringan Dokter Global dan perute waktu-nyata, sebuah fitur yang dapat secara instan mengalihkan interaksi pengguna ke model obrolan atau penalaran baru tergantung konteks percakapan. OpenAI menjelaskan bahwa "percakapan sensitif" sekarang akan dialihkan ke salah satu model penalaran perusahaan, seperti GPT-5-thinking, untuk "memberikan respons yang lebih membantu dan bermanfaaat, terlepas dari model yang awalnya dipilih pengguna."
Selama tahun terakhir, perusahaan AI berada di bawah pengawasan yang meningkat karena gagal menangani masalah keamanan pada chatbot mereka, yang kian sering digunakan sebagai teman emosional oleh pengguna yang lebih muda. Pagar pengaman telah terbukti mudah di-jailbreak, termasuk batasan pada bagaimana chatbot merespons permintaan pengguna yang berbahaya atau terlarang.
Kontrol orangtua telah menjadi langkah pertama standar bagi perusahaan teknologi dan media sosial yang dituduh memperburuk krisis kesehatan mental remaja, memfasilitasi materi pelecehan seksual anak, dan gagal menangani predator daring. Namun, fitur semacam itu memiliki keterbatasan, menurut para ahli, karena mengandalkan proaktivitas dan energi orangtua, bukan perusahaan. Alternatif keselamatan anak lainnya, termasuk pembatasan di pasar aplikasi dan verifikasi usia daring, tetap kontroversial.
Seiring perdebatan dan kekhawatiran tentang efektivitasnya, perusahaan AI terus meluncurkan pagar pengaman tambahan. Anthropic baru-baru ini mengumumkan bahwa chatbot-nya, Claude, kini akan secara otomatis mengakhiri interaksi yang berpotensi berbahaya dan kasar, termasuk konten seksual yang melibatkan anak di bawah umur—sementara obrolan saat ini akan diarsipkan, pengguna tetap dapat memulai percakapan baru. Menghadapi kritik yang bertambah, Meta mengumumkan bahwa mereka membatasi avatar AI untuk pengguna remaja, sebuah rencana sementara yang mencakup pengurangan jumlah chatbot yang tersedia dan melatih mereka untuk tidak membahas topik seperti melukai diri, gangguan makan, dan interaksi romantis yang tidak pantas.