FTC Selidiki Masalah Besar Pendamping Chatbot Remaja

Komisi Perdagangan Federal (FTC) lagi nyeleduk beberapa perusahaan media sosial dan AI. Mereka mau tau soal bahaya buat anak-anak dan remaja yang pake chatbot AI buat temen curhat.

FTC bilang, mereka udah kirim surat ke beberapa perusahaan besar, kayak Alphabet (pemilik Google), Meta (pemilik Facebook dan Instagram), Snap, Character Technologies, OpenAI (pembuat ChatGPT), dan xAI. FTC pengen tau langkah apa aja yang udah perusahaan-perusahaan ini lakuin buat ngevaluasi keamanan chatbot mereka, terutama buat anak muda. Mereka juga mau pastikan bahwa perusahaan udah kasih tau pengguna dan orang tua tentang resikonya.

CATATAN REDAKSI — Cerita ini membahas tentang bunuh diri. Kalau kamu atau orang yang kamu kenal butuh bantuan, hubungi layanan krisis dan bunuh diri nasional di AS dengan nelpon atau sms ke 988.

Ini terjadi karena makin banyak anak pake chatbot AI buat segala hal. Mulai dari ngerjain PR, minta saran, dukungan emosi, sampe bantu ambil keputusan sehari-hari. Padahal, riset nunjukin kalau chatbot bisa kasih saran yang berbahaya, contohnya tentang narkoba, alkohol, dan gangguan makan. Ada seorang ibu di Florida yang anak laki-lakinya bunuh diri, nuntut Character.AI. Katanya, anaknya punya hubungan yang emosional dan seksual yang nggak sehat sama chatbot. Orang tua dari Adam Raine yang berumur 16 tahun juga nuntut OpenAI, karena ChatGPT dikatakan ngasih panduan buat bunuh diri.

Character.AI bilang mereka siap kerjasama dengan FTC. Mereka udah investasi banyak buat fitur Kepercayaan dan Keamanan, termasuk pengalaman khusus buat pengguna di bawah 18 tahun dan fitur untuk orang tua. Mereka juga pasang peringatan di setiap chat bahwa karakternya bukan orang beneran.

MEMBACA  Pemerintah Jepang Serukan Rapat Dini Hari, Sementara Tokyo Uji Coba Kerja 4 Hari Seminggu

Snap bilang chatbot My AI mereka jujur tentang kemampuannya dan batasannya. Mereka juga mau kerjasama dengan FTC.

Meta nggak kasih komentar, sementara Alphabet, OpenAI, dan xAI belum jawab juga.

OpenAI dan Meta baru aja umumin perubahan buat chatbot mereka. Sekarang, kalau ada remaja yang nanya tentang bunuh diri atau tunjukin tanda-tanda stres, chatbotnya bakal coba alihkan percakapan ke model AI yang lebih bagus. OpenAI juga bakal kasih kontrol baru buat orang tua, jadi mereka bisa link akun mereka ke akun anaknya dan matiin fitur tertentu. Meta juga sekarang blokir chatbotnya supaya jangan bahas soal bunuh diri, melukai diri sendiri, gangguan makan, atau percakapan romantis yang nggak pantas sama remaja. Sebagai gantinya, chatbot bakal arahin mereka ke sumber daya ahli. Meta emang udah punya kontrol untuk orang tua di akun remaja.