Yayasan Pantau Internet Temukan Kenaikan 260 Kali Lipat CSAM Hasil AI dan ‘Itu Hanya Puncak Gunung Es’

Angkanya sangat mengejutkan, tapi para ahli bilang ini baru permulaan. Saat materi pelecehan seksual anak buatan AI melonjak ke level tertinggi, peneliti memperingatkan bahwa teknologi ini tidak cuma menghasilkan konten berbahaya lebih banyak, tetapi juga mengubah cara anak-anak jadi sasaran, cara korban kembali menjadi korban, dan cara penyelidik kewalahan.

Penyelidik sudah kewalahan menghapus CSAM (materi pelecehan seksual anak) dari internet. Tapi dengan AI generatif, tantangan itu jadi lebih buruk. Internet Watch Foundation (IWF), saluran pelaporan terbesar di Eropa untuk memerangi gambar pelecehan seksual anak online, mencatat kenaikan 260 kali lipat pada video pelecehan seksual anak buatan AI di tahun 2025. Dari cuma 13 video di tahun sebelumnya menjadi 3.443 video. Peneliti yang bertahun-tahun melacak masalah ini bilang ledakan ini bukan kejutan. Tapi ini sebuah peringatan.

“Angka apa pun yang kita lihat, itu cuma puncak gunung es,” kata Melissa Stroebel, wakil presiden penelitian dan wawasan strategis di Thorn, sebuah LSM yang membangun teknologi untuk memerangi eksploitasi seksual anak online. “Itu tentang apa yang telah terdeteksi atau dilaporkan secara proaktif.”

Lonjakan ini adalah akibat langsung dari AI generatif yang makin cepat, murah, dan mudah diakses oleh pelaku kejahatan. Thorn mengidentifikasi tiga cara berbeda alat-alat ini sekarang dipakai untuk menyerang anak-anak.

Pertama adalah korban kembali dari penyintas pelecehan masa lalu. Seorang anak yang dilecehkan di tahun 2010 dan fotonya beredar online selama lebih dari satu dekade sekarang menghadapi bahaya baru. Pelaku menggunakan AI untuk mengambil gambar-gambar yang sudah ada dan mempersonalisasikannya: menyisipkan diri mereka sendiri ke dalam rekaman adegan pelecehan untuk membuat materi baru.

MEMBACA  Oura Luncurkan Cincin Generasi 4 dari Keramik dengan Warna Baru dan Case Pengisian Daya Terbaru

“Sama seperti kamu bisa mem-Foto-sop nenek yang ketinggalan foto Natal ke dalam foto Natal itu,” kata Stroebel kepada Fortune, “pelaku jahat bisa mem-Foto-sop diri mereka sendiri ke dalam adegan dan rekaman seorang anak yang sudah teridentifikasi.” Proses itu menciptakan korban baru bagi penyintas yang mungkin sudah bertahun-tahun berusaha melupakan pelecehan mereka.

Kedua adalah penggunaan gambar-gambar tidak bersalah sebagai senjata. Foto seorang anak di halaman web tim sepak bola sekolah sekarang bisa jadi bahan sumber untuk pelecehan. Dengan alat AI yang tersedia luas, pelaku bisa mengubah gambar yang sepenuhnya biasa itu menjadi materi pelecehan seksual dalam hitungan menit. Thorn juga mendokumentasikan kasus sesama teman, di mana seorang remaja membuat gambar pelecehan tentang teman sekelasnya tanpa sepenuhnya paham tingkat bahaya yang mereka sebabkan.

Dampak ketiga, dan paling sistemik, adalah tekanan pada saluran pelaporan yang sudah kewalahan. National Center for Missing and Exploited Children menerima puluhan juta laporan CSAM setiap tahun. Kecepatan AI sekarang menghasilkan materi baru memperberat beban itu dan menciptakan urgensi baru. Saat gambar baru datang, penyelidik harus menentukan apakah itu menggambarkan anak dalam bahaya aktif saat ini, atau gambar buatan AI.

“Itu masukan yang sangat kritis untuk membantu mereka memprioritaskan dan menanggapi kasus-kasus ini,” kata Stroebel. Konten buatan AI membuat penentuan itu jauh lebih sulit, tapi dia menambahkan baik kasus gambar yang diambil secara langsung maupun gambar buatan AI dilaporkan dan ditangani dengan cara yang sama oleh pihak berwajib.

Teknologi ini juga membuat beberapa panduan keselamatan anak yang paling sering diulang jadi sudah ketinggalan zaman dan berbahaya. Selama bertahun-tahun, anak-anak diperingatkan untuk tidak membagikan gambar online sebagai langkah dasar melawan eksploitasi. Nasihat itu sudah tidak berlaku lagi. Penelitian Thorn sendiri menemukan bahwa 1 dari 17 orang muda pernah mengalami penyalahgunaan gambar deepfake secara pribadi, dan 1 dari 8 tahu seseorang yang pernah jadi sasaran. Korban sextortion sekarang dikirimi gambar yang terlihat persis seperti mereka—gambar yang tidak pernah mereka ambil.

MEMBACA  Presiden akan memberlakukan tarif kepada Kanada, Meksiko, dan China

“Anak tidak perlu lagi membagikan sebuah gambar untuk mereka jadi sasaran eksploitasi,” kata Stroebel.

Di sisi deteksi, teknologi hashing tradisional, yang bekerja seperti sidik jari digital untuk file pelecehan yang sudah diketahui, tidak bisa mengidentifikasi konten buatan AI karena setiap gambar sintetis yang dibuat secara teknis adalah baru. Contohnya, foto sesuatu yang sangat dikenal, seperti Patung Liberty. Foto patung itu punya sidik jari digital. Sekarang coba kamu perbesar, perbesar lagi, dan perbesar sekali lagi untuk mengubah bayangan satu piksel sebesar 0.1%. Perubahan itu mungkin tidak terlihat oleh mata manusia. Tapi, sidik jari foto itu sekarang menjadi baru sama sekali, artinya teknologi hashing tidak mengenalinya sebagai foto yang sama dengan hanya perbedaan satu piksel itu.

Sebelumnya, di bawah teknologi hashing tradisional, membuat perbedaan satu piksel itu pada foto yang diketahui sebagai CSAM berarti foto itu tidak akan terdeteksi oleh teknologi. Namun, teknologi klasifikasi, yang mengevaluasi apa yang dikandung sebuah gambar daripada mencocokkannya dengan file yang diketahui, sekarang penting untuk menangkap konten yang akan lolos sama sekali.

Untuk orang tua, pesan Stroebel mendesak dan jelas: percakapan tidak bisa ditunda, dan harus lebih jauh dari peringatan-peringatan lama. Jika seorang anak melapor, tanggapan pertama tidak boleh skeptis. “Tugas kita adalah: apakah kamu aman, dan bagaimana saya membantumu mengambil langkah berikutnya?”

Tinggalkan komentar