Instagram Akan Beri Pemberitahuan ke Orang Tua Saat Anak Cari Topik Bunuh Diri atau Luka Diri Sendiri, Sementara Meta Hadapi Gugatan Soal Kecanduan

Instagram menyatakan pada hari Kamis bahwa mereka akan mulai mengirim peringatan ke orang tua jika anak mereka berulang kali mencari istilah yang jelas dikaitkan dengan bunuh diri atau melukai diri sendiri. Peringatan ini hanya akan dikirim ke orang tua yang sudah mendaftar dalam program pengawasan orangtua Instagram.

Instagram mengatakan mereka sudah memblokir konten semacam itu agar tidak muncul di hasil pencarian akun remaja dan malah mengarahkan pengguna ke layanan bantuan.

Pengumuman ini muncul saat Meta sedang menghadapi dua sidang terkait bahaya terhadap anak-anak. Sidang di Los Angeles mempertanyakan apakah platform Meta sengaja membuat ketagihan dan membahayakan anak di bawah umur. Sidang lain di New Mexico berusaha menentukan apakah Meta gagal melindungi anak-anak dari eksploitasi seksual di platformnya. Ribuan keluarga — bersama distrik sekolah dan lembaga pemerintah — telah menggugat Meta dan perusahaan media sosial lain karena diduga sengaja mendesain platform mereka agar membuat ketagihan dan gagal melindungi anak-anak dari konten yang dapat menyebabkan depresi, gangguan makan, dan bunuh diri.

Eksekutif Meta termasuk CEO Mark Zuckerberg membantah bahwa platform mereka menyebabkan kecanduan. Saat ditanyai pengacara penggugat di Los Angeles, Zuckerberg mengatakan dia masih setuju dengan pernyataannya sebelumnya bahwa penelitian ilmiah yang ada belum membuktikan bahwa media sosial menyebabkan kerugian bagi kesehatan mental.

Peringatan akan dikirim via email, SMS, atau WhatsApp, tergantung informasi kontak orang tua yang tersedia, serta notifikasi melalui akun Instagram orang tua.

“Tujuan kami adalah memberdayakan orang tua untuk turun tangan jika pencarian anak remaja mereka menunjukan mereka mungkin butuh dukungan. Kami juga ingin menghindari mengirim notifikasi ini tanpa perlu, karena jika terlalu sering, bisa membuat notifikasi kurang berguna secara keseluruhan,” kata Meta dalam postingan blog.

MEMBACA  2 Saham AI Cemerlang untuk Dibeli di Januari dan Ditahan dalam Jangka Panjang

Josh Golin, direktur eksekutif lembaga nirlaba Fairplay, meragukan alat baru ini. Dia bilang Instagram “jelas melakukan langkah ini sekarang karena perusahaan sedang diadili di dua negara bagian berbeda karena membuat ketagihan dan membahayakan anak-anak.”

“Sekali lagi, Meta mengalihkan beban ke orang tua daripada memperbaiki cacat berbahaya dalam cara mereka mendesain algoritma dan platformnya,” kata Golin. “Dan semua anak berhak dilindungi, terlepas dari apakah orang tua mereka telah mendaftar dan menggunakan alat pengawasan Meta. Jika suatu produk tidak aman untuk digunakan remaja tanpa campur tangan orang tua, seharusnya produk itu tidak dipasarkan ke remaja sama sekali.”

Meta mengatakan mereka juga mengerjakan notifikasi serupa untuk orang tua tentang interaksi anak mereka dengan kecerdasan buatan.

“Ini akan memberitahu orang tua jika seorang remaja mencoba melakukan percakapan tertentu terkait bunuh diri atau melukai diri sendiri dengan AI kami,” kata Meta. “Ini adalah pekerjaan penting dan kami akan berbagi lebih banyak dalam bulan-bulan mendatang.”

Tinggalkan komentar