Namun, terdapat pola yang jelas yang muncul. Dalam hampir semua kasus, remaja laki-laki diduga bertanggung jawab atas pembuatan gambar atau video tersebut. Materi ini sering kali dibagikan di aplikasi media sosial atau melalui pesan instan kepada teman sekelas. Dampaknya sangat merugikan korban. “Saya khawatir setiap kali mereka melihat saya, yang terlihat adalah foto-foto itu,” ujar seorang korban di Iowa awal tahun ini. “Dia terus menangis. Dia tidak mau makan,” kata keluarga korban lainnya.
Dalam banyak kejadian, para korban seringkali enggan bersekolah atau bertemu dengan mereka yang menciptakan gambar atau video eksplisit tersebut. “Dia merasa putus asa karena tahu gambar-gambar itu kemungkinan akan tersebar di internet dan menjangkau para pedofil,” ungkap pengacara Shane Vogt, beserta tiga mahasiswa Yale Law School, Catharine Strong, Tony Sjodin, dan Suzanne Castillo, yang mewakili seorang remaja tanpa nama dari New Jersey dalam gugatan hukum terhadap layanan “nudifikasi”. “Dia sangat tertekan mengetahui gambar-gambar itu beredar, dan dia harus memantau internet seumur hidupnya untuk mencegah penyebarannya.”
Di Korea Selatan dan Australia, beberapa sekolah memberikan opsi kepada siswa untuk tidak memuat foto mereka di buku tahunan atau menghentikan unggahan foto siswa di akun media sosial resmi sekolah, dengan alasan potensi penyalahgunaan untuk deepfake. “Di seluruh dunia, telah terjadi kasus di mana gambar sekolah diambil dari halaman media sosial publik, diubah menggunakan AI, dan dijadikan deepfake yang berbahaya,” pernyataan satu sekolah di Australia. “Sebagai gantinya, yang ditampilkan adalah foto profil samping, siluet, belakang kepala, foto kelompok dari kejauhan, filter kreatif, atau foto stok yang disetujui.”
Deepfake seksual yang dibuat dengan AI telah ada sejak sekitar akhir 2017; namun, seiring kemunculan dan semakin canggihnya sistem AI generatif, terbentuklah ekosistem kelam teknologi “nudifikasi” atau “pelucutan”. Puluhan aplikasi, bot, dan situs web memungkinkan siapa saja membuat gambar dan video seksual orang lain hanya dengan beberapa klik, seringkali tanpa memerlukan pengetahuan teknis.
“Yang diubah oleh AI adalah skala, kecepatan, dan aksesibilitas,” jelas Siddharth Pillai, direktur dan salah satu pendiri RATI Foundation, organisasi di Mumbai yang bekerja mencegah kekerasan terhadap perempuan dan anak. “Hambatan teknis turun signifikan, artinya lebih banyak orang, termasuk remaja, dapat menghasilkan keluaran yang lebih meyakinkan dengan usaha minimal. Seperti banyak kerugian berbasis AI lainnya, ini berujung pada banjir konten.”
Amanda Goharian, Direktur Riset dan Insight di kelompok keselamatan anak Thorn, menyatakan riset mereka menunjukkan beragam motivasi remaja menciptakan deepfake pelecehan, mulai dari dorongan seksual, rasa ingin tahu, balas dendam, hingga bahkan karena berani-dare. Studi terhadap orang dewasa pembuat deepfake pelecehan seksual juga menunjukkan banyak alasan berbeda di balik pembuatan gambar tersebut. “Tujuannya tidak selalu pemuasan seksual,” kata Pillai. “Semakin sering, niatnya adalah penghinaan, pelecehan, dan kontrol sosial.”
“Ini bukan sekadar soal teknologi,” ujar Tanya Horeck, profesor dan peneliti studi media feminis yang fokus pada kekerasan berbasis gender yang meneliti deepfake seksual di sekolah-sekolah Inggris di Anglia Ruskin University. “Ini tentang dinamika gender yang sudah berlangsung lama yang memfasilitasi kejahatan-kejahatan ini.”