Menurut dokumen internal yang ditinjau oleh NPR, Meta diduga berencana menggantikan penilai risiko manusia dengan AI, seiring perusahaan tersebut semakin mendekati otomatisasi penuh.
Secara historis, Meta mengandalkan analis manusia untuk menilai potensi bahaya dari teknologi baru di seluruh platformnya, termasuk pembaruan algoritma dan fitur keamanan, sebagai bagian dari proses yang dikenal sebagai tinjauan privasi dan integritas.
Tapi dalam waktu dekat, penilaian penting ini mungkin akan diambil alih oleh bot, karena perusahaan berencana mengotomatisasi 90 persen pekerjaan ini menggunakan kecerdasan buatan.
LIHAT JUGA:
Pembaruan DeepSeek R1 membuktikan ancaman serius bagi OpenAI dan Google
Meski sebelumnya menyatakan AI hanya akan digunakan untuk menilai rilis “berisiko rendah”, Meta kini memperluas penggunaannya dalam keputusan terkait keamanan AI, risiko anak muda, dan integritas—termasuk moderasi misinformasi dan konten kekerasan, dilaporkan NPR. Di sistem baru ini, tim produk mengisi kuesioner dan menerima keputusan serta rekomendasi risiko instan, dengan insinyur mengambil alih kendali keputusan yg lebih besar.
Mashable Light Speed
Meski otomatisasi dapat mempercepat pembaruan aplikasi dan rilis pengembang sesuai tujuan efisiensi Meta, pihak dalam mengatakan ini juga bisa menimbulkan risiko lebih besar bagi miliaran pengguna, termasuk ancaman tidak perlu terhadap privasi data.
Pada April, dewan pengawas Meta menerbitkan serangkaian keputusan yang sekaligus mengukuhkan sikap perusahaan atas pembiaran ucapan “kontroversial” sekaligus mengecam raksasa teknologi itu karena kebijakan moderasi kontennya.
“Saat perubahan ini diluncurkan secara global, Dewan menekankan pentingnya Meta mengidentifikasi dan menangani dampak buruk terhadap hak asasi manusia yang mungkin timbul,” bunyi keputusan itu. “Ini harus termasuk menilai apakah mengurangi ketergantungan pada deteksi otomatis pelanggaran kebijakan dapat berakibat tidak merata secara global, terutama di negara-negara yang mengalami krisis saat ini atau baru-baru ini, seperti konflik bersenjata.”
Awal bulan itu, Meta menutup program pemeriksaan fakta manusia, menggantinya dengan Community Notes yang bersumber dari kerumunan dan lebih mengandalkan algoritma moderasi konten—teknologi internal yang dikenal gagal mendeteksi dan salah menandai misinformasi serta postingan lain yang melanggar kebijakan konten yang baru direvisi.
Topik:
Kecerdasan Buatan
Meta