OpenAI telah membentuk dewan penasihat untuk memantau kesejahteraan pengguna dan keamanan AI, demikian diumumkan perusahaan pekan ini. Kelompok yang beranggotakan delapan orang ini akan diberi tugas untuk menetapkan standar interaksi AI yang sehat di berbagai kelompok usia.
Pengumuman ini disertai dengan sebuah postingan X oleh CEO Sam Altman yang menyatakan bahwa perusahaan telah berhasil memitigasi “masalah kesehatan mental serius” yang ditimbulkan oleh penggunaan produknya — Altman kemudian menjelaskan bahwa ChatGPT akan mulai mengizinkan lebih banyak konten dewasa, termasuk erotika, dalam obrolan. OpenAI saat ini sedang menghadapi gugatan dakwaan kematian tidak wajar yang pertama, menyusul dugaan bahwa ChatGPT berperan dalam kematian seorang remaja akibat bunuh diri.
BACA JUGA:
Model AI terbaru Anthropic, Claude Haiku 4.5, fokus pada kecepatan dan keamanan
Anggota dewan mencakup para akademisi dari Digital Wellness Lab Boston Children’s Hospital dan Stanford’s Digital Mental Health Clinic, serta para ahli di bidang psikologi, psikiatri, dan interaksi manusia-komputer.
Mashable Light Speed
“Kami tetap bertanggung jawab atas keputusan yang kami buat, tetapi kami akan terus belajar dari dewan ini, Jaringan Dokter Global, pembuat kebijakan, dan lain-lain, seiring kami membangun sistem AI yang canggih dengan cara-cara yang mendukung kesejahteraan orang,” tulis perusahaan dalam sebuah postingan blog.
Tweet ini saat ini tidak tersedia. Mungkin sedang dimuat atau telah dihapus.
Tweet ini saat ini tidak tersedia. Mungkin sedang dimuat atau telah dihapus.
Pekan lalu, YouGov menerbitkan survei terhadap 1.500 warga Amerika yang menemukan bahwa hanya 11 persen yang terbuka untuk menggunakan AI guna meningkatkan kesehatan mental mereka. Hanya 8 persen responden yang mengatakan mereka mempercayai teknologi ini untuk digunakan di ruang lingkup ini.
Secara luas, pendamping AI generatif telah menimbulkan kekhawatiran serius di kalangan ahli kesehatan mental, termasuk munculnya apa yang disebut sebagai psikosis AI di antara pengguna kronis pendamping chatbot. Perusahaan-perusahaan AI terus meluncurkan produk kesehatan mental, seiring semakin banyaknya warga Amerika yang beralih ke AI untuk menjawab pertanyaan kesehatan mental dan menerima dukungan dari pengganti digital — meskipun bukti yang membuktikan kemanjurannya masih sangat sedikit.
Regulator federal juga sedang menyelidiki peran AI generatif dan pendamping chatbot dalam krisis kesehatan mental yang semakin meningkat, terutama di kalangan remaja. Beberapa negara bagian telah melarang chatbot bertenaga AI yang diiklankan sebagai asisten terapeutik. Bulan lalu, Gubernur California Gavin Newsom menandatangani serangkaian RUU yang berupaya mengatur AI dan dampaknya terhadap masyarakat, termasuk wajib lapor keamanan bagi perusahaan AI dan protokol yang melindungi pengguna remaja dari paparan konten seksual. Hukum yang terakhir, SB 243, juga mewajibkan perusahaan untuk menerapkan sistem untuk menangani ide bunuh diri, bunuh diri, dan tindakan menyakiti diri sendiri.