Penyalahgunaan AI: Munculnya Video Mengganggu dengan Anak-Anak Hasil Sora 2

Pada 7 Oktober, sebuah akun TikTok bernama @fujitiva48 mengajukan pertanyaan provokatif bersama video terbarunya. “Apa pendapat kalian tentang mainan baru untuk anak-anak ini?” tanya mereka kepada lebih dari 2.000 penonton yang menjumpai apa yang tampak seperti parodi iklan televisi. Tanggapannya jelas. “Hei, ini tidak lucu sama sekali,” tulis satu orang. “Siapa pun yang membuat ini harus diselidiki.”

Mudah dimengerti mengapa video itu memicu reaksi keras. Iklan palsu itu dibuka dengan seorang gadis muda fotorealistik memegang mainan—berwarna pink, berkilau, dengan gambar lebah menghiasi pegangannya. Itu adalah sebuah pulpen, demikian narasi dari seorang pengisi suara pria dewasa, sementara gadis itu dan dua lainnya mencoret-coret kertas. Namun jelas terlihat bahwa desain bunga pada benda itu, kemampuannya untuk bergetar, dan namanya—Vibro Rose—sangat mirip baik secara visual maupun suara dengan sebuah *sex toy*. Tombol “add yours”—fitur di TikTok yang mendorong orang untuk membagikan video ke feed mereka—dengan tulisan “Aku sedang menggunakan mainan mawarku,” menghilangkan sisa keraguan sekecil apa pun. (WIRED menghubungi akun @fujitiva48 untuk meminta komentar, tetapi tidak mendapat tanggapan.)

Klip yang tak pantas itu dibuat menggunakan Sora 2, generator video terbaru OpenAI, yang awalnya dirilis hanya dengan undangan di AS pada 30 September. Hanya dalam rentang satu minggu, video seperti klip Vibro Rose telah bermigrasi dari Sora dan muncul di Halaman For You TikTok. Beberapa iklan palsu lain bahkan lebih eksplisit, dengan WIRED menemukan beberapa akun yang memposting video serupa hasil generasi Sora 2 menampilkan mainan air berbentuk mawar atau jamur serta alat dekorasi kue yang menyemprotkan “susu lengket”, “busa putih”, atau “cairan kental” pada gambar-gambar anak-anak yang terlihat nyata.

MEMBACA  Adani diduga melakukan penipuan dengan menjual batubara berkualitas rendah sebagai bahan bakar bernilai tinggi

Hal di atas, di banyak negara, akan menjadi alasan untuk penyelidikan jika yang terlibat adalah anak-anak sungguhan dan bukan amalgamasi digital. Namun hukum mengenai konten fetish berbasis AI yang melibatkan anak di bawah umur masih buram. Data baru 2025 dari Internet Watch Foundation di Inggris mencatat bahwa laporan mengenai materi pelecehan seksual anak (CSAM) hasil AI telah berlipat ganda dalam setahun dari 199 antara Januari-Oktober 2024 menjadi 426 pada periode yang sama di 2025. Lima puluh enam persen konten ini masuk dalam Kategori A—kategori paling serius di Inggris yang melibatkan aktivitas seksual penetratif, aktivitas seksual dengan hewan, atau sadisme. Sembilan puluh empat persen gambar AI ilegal yang dilacak IWF adalah gambar anak perempuan. (Sora tampaknya tidak menghasilkan konten Kategori A apa pun.)

“Sering kali, kami menyaksikan kemiripan anak-anak sungguhan dikomersialkan untuk menciptakan citra telanjang atau seksual, dan yang sangat dominan, kami melihat AI digunakan untuk menciptakan citra anak perempuan. Ini adalah satu lagi cara anak perempuan menjadi sasaran di dunia online,” kata Kerry Smith, CEO IWF, kepada WIRED.

Masifnya materi berbahaya hasil AI ini telah mendorong Inggris memperkenalkan amandemen baru pada RUU Kejahatan dan Polisi, yang akan mengizinkan “penguji berwenang” untuk memeriksa bahwa alat kecerdasan buatan tidak mampu menghasilkan CSAM. Seperti dilaporkan BBC, amandemen ini akan memastikan model-model AI memiliki pengaman terkait gambar spesifik, terutama pornografi ekstrem dan gambar intim tanpa persetujuan. Di AS, 45 negara bagian telah menerapkan undang-undang untuk mengkriminalisasi CSAM hasil AI, sebagian besar dalam dua tahun terakhir, seiring terus berkembangnya generator AI.

Tinggalkan komentar