Beberapa minggu yang lalu, pencarian Google untuk “deepfake telanjang jennifer aniston” menampilkan setidaknya tujuh hasil teratas yang mengklaim memiliki gambar-gambar eksplisit yang dihasilkan oleh AI dari aktris tersebut. Sekarang mereka telah menghilang.
Manajer produk Google, Emma Higham mengatakan bahwa penyesuaian baru terhadap cara perusahaan menilai hasil, yang telah diterapkan tahun ini, telah memotong paparan gambar palsu eksplisit sebesar lebih dari 70 persen dalam pencarian yang mencari konten tersebut tentang seseorang tertentu. Di mana hasil yang bermasalah mungkin muncul sebelumnya, algoritma Google sekarang bertujuan untuk mempromosikan artikel berita dan konten non-eksplisit lainnya. Pencarian Aniston sekarang mengembalikan artikel seperti “Bagaimana Porno AI Deepfake Taylor Swift Mewakili Ancaman” dan tautan lain seperti peringatan jaksa agung Ohio tentang “penipuan dukungan selebriti deepfake” yang menargetkan konsumen.
“Dengan perubahan ini, orang dapat membaca tentang dampak deepfake terhadap masyarakat, daripada melihat halaman dengan Gambar palsu non-konsensual sebenarnya,” tulis Higham dalam sebuah pos blog perusahaan pada hari Rabu.
Perubahan peringkat ini mengikuti penyelidikan WIRED bulan ini yang mengungkapkan bahwa dalam beberapa tahun terakhir, manajemen Google menolak banyak ide yang diajukan oleh staf dan pakar luar untuk melawan masalah berkembangnya penggambaran intim orang yang menyebar online tanpa izin mereka.
Meskipun Google telah memudahkan permintaan penghapusan konten eksplisit yang tidak diinginkan, korban dan advokat mereka telah mendesak langkah-langkah lebih proaktif. Namun, perusahaan telah mencoba untuk menghindari menjadi terlalu banyak regulator internet atau merusak akses ke pornografi yang sah. Pada saat itu, juru bicara Google menjawab bahwa beberapa tim sedang bekerja keras untuk memperkuat perlindungan terhadap apa yang disebutnya sebagai gambar eksplisit nonkonsensual (NCEI).
Ketersediaan luas pembuat gambar AI, termasuk beberapa dengan sedikit batasan pada penggunaannya, telah menyebabkan peningkatan dalam NCEI, menurut advokat korban. Alat-alat tersebut telah membuatnya mudah bagi siapa pun untuk membuat gambar palsu eksplisit dari individu manapun, baik itu teman sekelas di sekolah menengah atau mega-selebriti.
Pada bulan Maret, analisis WIRED menemukan bahwa Google telah menerima lebih dari 13.000 permintaan untuk menghapus tautan ke selusin situs web paling populer yang menyimpan deepfakes eksplisit. Google menghapus hasil dalam sekitar 82 persen dari kasus tersebut.
Sebagai bagian dari tindakan tegas baru Google, Higham mengatakan bahwa perusahaan akan mulai menerapkan tiga langkah untuk mengurangi kemungkinan gambar eksplisit yang nyata tetapi tidak diinginkan menjadi yang sintetis dan tidak diinginkan. Setelah Google menghormati permintaan penghapusan untuk deepfake yang terseksualisasi, kemudian akan berusaha untuk menjaga duplikatnya keluar dari hasil. Ini juga akan menyaring gambar eksplisit dari hasil dalam pertanyaan yang mirip dengan yang disebutkan dalam permintaan penghapusan. Dan akhirnya, situs web yang menjadi subjek “volume tinggi” permintaan penghapusan yang berhasil akan menghadapi penurunan peringkat dalam hasil pencarian.
“Upaya ini dirancang untuk memberikan ketenangan tambahan kepada orang, terutama jika mereka khawatir tentang konten serupa tentang mereka muncul di masa depan,” tulis Higham.
Google telah mengakui bahwa langkah-langkah tersebut tidak berfungsi dengan sempurna, dan mantan karyawan dan advokat korban mengatakan bahwa langkah-langkah tersebut bisa jauh lebih jauh. Mesin pencari secara prominennya memperingatkan orang di AS yang mencari gambar telanjang anak-anak bahwa konten tersebut adalah ilegal. Efektivitas peringatan tersebut tidak jelas, tetapi merupakan pencegah potensial yang didukung oleh advokat. Namun, meskipun ada undang-undang yang melarang berbagi NCEI, peringatan serupa tidak muncul untuk pencarian yang mencari deepfakes seksual dari orang dewasa. Juru bicara Google telah mengonfirmasi bahwa hal ini tidak akan berubah.