Limbah AI Merusak Internet. Inilah Para Pejuang yang Berupaya Menyelamatkannya.

Rosanna Pansino telah membagikan kreasi kulinernya di internet selama lebih dari 15 tahun, dengan harapan dapat menginspirasi melalui kreasi yang menyenangkan, seperti kue Death Star Star Wars dan cokelat batang holografik. Namun, dalam seri terbarunya, ia memiliki tujuan baru: "Mengalahkan AI."

Ini terjadi karena ‘sampah AI’ membanjiri linimasa media sosialnya. Dulu Pansino melihat unggahan dari tukang kue dan teman-teman nyata; kini, semuanya tersaingi oleh klip buatan AI. Ada satu genre video sampah yang menampilkan makanan, termasuk tren aneh di mana objek tak lazim dioleskan secara "memuaskan" di atas roti panggang.

Ia pun memutuskan untuk bertindak. Ia akan mempertaruhkan bertahun-tahun keahliannya berhadapan dengan AI untuk menciptakan ulang video-video sampah tersebut di kehidupan nyata.

Misalnya: segunung permen asam Peach Rings yang dengan mudahnya dioles di atas roti. Video AI itu terlihat sederhana, namun Pansino harus menciptakan sesuatu yang sama sekali baru. Ia menggunakan mentega sebagai dasar, yang diresapi minyak beraroma persik. Pewarna makanan kuning dan oranye memberikannya warna pastel yang tepat. Ia dengan hati-hati memipetkan mentega ke dalam bentuk cincin menggunakan cetakan silikon. Setelah mengeras di freezer, ia menggunakan mentega tanpa warna untuk merekatkan dua cincin menjadi bentuk 3D yang pas. Sentuhan akhir adalah mencelupkannya ke campuran gula dan asam sitrat untuk mendapatkan tampilan dan rasa permen asam.

Hasilnya sukses. Cincin mentega itu adalah replika sempurna dari permen cincin asli, dan video Pansino persis mencerminkan versi AI, dengan cincin-cincin itu meluncur mulus di atas roti. Yang terpenting, ia berhasil mencapai tujuannya.

"Internet dibanjiri sampah AI, dan aku ingin menemukan cara untuk melawannya dengan pendekatan yang menyenangkan," kata Pansino.

Ini adalah kemenangan langka bagi manusia, di tengah banjirnya sampah buatan AI yang memenuhi dunia online yang dahulu dibangun oleh manusia untuk manusia.

Teknologi AI telah bekerja di balik layar internet selama bertahun-tahun, seringkali secara tak terasa. Lalu, beberapa tahun lalu, AI generatif muncul ke permukaan, meluncurkan transformasi yang bergerak dengan kecepatan luar biasa. Bersamanya datanglah banjir sampah AI, istilah untuk teks, gambar, dan video buatan AI yang biasa-biasa saja namun tak terhindarkan di internet, dari mesin pencari hingga media sosial.

"Sampah AI" adalah tiruan konten yang buruk, seringkali merupakan daur ulang informasi yang tak berguna dan sembrono. Rentan kesalahan, dengan ringkasan yang mengklaim fakta fiktif atau makalah yang mengutip kredensial palsu. Gambarnya cenderung memiliki tampilan mengilap dan artifisial, sementara video ‘kerusakan otak’ kerap melanggar hukum fisika dasar. Bayangkan kelinci palsu di atas trampolin dan AI Overview yang menyarankan untuk memberi lem di pizza.

Sebagian besar pengguna media sosial dewasa di AS (94%) percaya mereka melihat konten buatan AI saat menggulir, menurut studi baru CNET. Hanya 11% yang menganggapnya menghibur, berguna, atau informatif.

Sampah ini ada karena AI membuat pembuatan konten dalam skala tak terbayangkan menjadi lebih cepat, mudah, dan murah dari sebelumnya. Sora milik OpenAI, Nano Banana milik Google, dan Meta AI menghasilkan video, gambar, dan teks hanya dengan beberapa klik.

Para pakar telah menyuarakan kekhawatiran tentang dampak AI terhadap lingkungan, ekonomi, tenaga kerja, misinformasi, anak-anak dan kelompok rentan. Mereka menyoroti kemampuannya memperkuat bias, meningkatkan penipuan, dan merugikan kreativitas manusia, namun tak ada yang memperlambat adopsi dan pengembangan AI yang cepat. AI mulai melampaui pencipta, seniman, dan penulis manusia yang karyanya justru menjadi bahan bakar bagi model-model ini.

Sampah AI bagaikan tumpahan minyak di lautan digital kita, namun banyak orang berusaha membersihkannya. Banyak yang memperjuangkan cara lebih baik untuk mengidentifikasi dan melabeli konten AI, dari meme hingga deepfake. Para kreator mendorong literasi media yang lebih baik dan mengubah cara kita mengonsumsi media. Penerbit, ilmuwan, dan peneliti menguji strategi baru agar informasi buruk tidak mendapat daya tarik dan kredibilitas. Pengembang membangun ruang online bebas AI sebagai perlindungan dari sampah. Regulasi dan legislasi memainkan peran dalam setiap solusi potensial.

Kita tak akan pernah sepenuhnya bebas dari AI, tetapi semua upaya ini mengembalikan sedikit sentuhan manusiawi ke internet. Rekreasi video AI oleh Pansino menyoroti kerja keras dan detail yang melibatkan proses penciptaan, jauh lebih dari sekadar mengetik perintah dan mengklik ‘buat’.

"Kreativitas manusia adalah salah satu hal terpenting yang kita miliki di dunia," kata Pansino. "Dan jika AI menenggelamkannya, apa yang tersisa bagi kita?"

Para Kreator yang Melawan: ‘AI Takkan Pernah Bisa’

Internet dibangun di atas video seperti Charlie Bit My Finger, Grumpy Cat, dan Evolution of Dance. Kini, kita memiliki video kucing buatan AI membentuk menara dan meme "Feel the AGI". Postingan AI yang tampak tak berbahaya ini adalah alasan sebagian orang di media sosial melihat sampah sebagai hiburan atau budaya internet baru. Bahkan ketika video jelas-jelas buatan AI, orang tidak selalu keberatan jika dianggap sebagai hiburan yang tak berbahaya. Namun, sampah AI tidak pernah benar-benar benign. Jika kamu mendaftar akun YouTube baru hari ini, sepertiga dari 500 YouTube Shorts pertama yang ditampilkan akan berupa konten AI slop dalam berbagai bentuk, menurut laporan dari Kapwing, pembuat alat video daring. Hingga Februari, ada lebih dari 1,3 miliar video di TikTok yang dilabeli sebagai hasil AI. Slop telah menyatu dalam aktivitas scroll kita, seperti halnya mikroplastik yang kini menjadi bahan default dalam makanan kita.

Pansino membandingkan pengalamannya merekam ulang video AI food slop dengan sebuah episode The Office. Di dalamnya, Dwight bersaing dengan situs web baru perusahaan untuk melihat apakah ia bisa mencapai penjualan lebih banyak.

"Dwight, sendirian, menang dalam penjualan melawan situs web — dia bersaing melawan mesin," kata Pansino. "Seperti itulah perasaanku saat membuat kue melawan AI. Rasanya seru."

(Penggemar The Office mungkin ingat bahwa Dwight menang di akhir episode, dan kemudian, karena kesalahan besar dan kecurangan, pembuat situs, Ryan, dipecat.)

CNET/Jeffrey Hazelwood

Lebih dari 21 juta pengikutnya di YouTube, Instagram, dan TikTok mendukung seri rekreasinya melawan AI, yang menurut Pansino berasal dari rasa frustrasi mereka sendiri melihat slop di feed. Lagipula, hasil karyanya benar-benar bisa dimakan.

"Kami menghasilkan dimensi yang tidak mungkin dicapai AI," ujarnya.

Kreator lain muncul sebagai "pemeriksa realitas." Jeremy Carrasco (@showtoolsai) memanfaatkan latar belakangnya sebagai produser video teknis untuk membongkar video AI yang viral. Timnya biasa menyelenggarakan siaran langsung untuk bisnis, berusaha menghindari kesalahan, yang membantunya lebih mudah mendeteksi ketika AI salah meniru kualitas video seperti flare lensa. Video edukasinya membantu lebih dari 870.000 pengikutnya di Instagram, YouTube, dan TikTok mengenali anomali ini.

Menganalisis konteks video, Carrasco menunjukkan tanda-tanda generatif AI seperti jump cut aneh dan masalah kesinambungan. Ia juga melacak pertama kali video dibagikan oleh orang sungguhan atau akun slop. Semua orang bisa melakukan ini, tapi sulit saat kamu "diumpan secara emosional" oleh slop, kata Carrasco.

"Kebanyakan orang tidak menghabiskan waktu menganalisis video seperti saya. Jadi jika alam bawah sadar mereka memberi sinyal ‘Ini terlihat nyata,’ pikiran mereka mungkin berhenti di sana," ujarnya.

Produsen slop tidak ingin kamu meragukan apa yang dilihat. Mereka ingin kamu bereaksi emosional — baik senang melihat kelinci di trampolin atau marah oleh meme politik — lalu berdebat di kolom komentar dan membagikan video ke teman. Tujuan banyak produsen AI slop adalah keterlibatan dan, oleh karena itu, monetisasi. Laporan Kapwing memperkirakan akun slop teratas menghasilkan jutaan dolar pendapatan ikon per tahun. Mereka mirip dengan engagement farmer dan ragebaiter di Twitter. Yang lama kini didukung AI.

MEMBACA  Prancis vs. Israel 2024 siaran langsung: Nonton UEFA Nations League secara gratis

Melihat belum tentu percaya. Lalu bagaimana?

Sulit bagi platform daring yang kita andalkan untuk mengidentifikasi gambar dan video AI. Untuk memberantas pelanggar terburuk, akun-akun yang memproduksi spam slop secara massal, beberapa platform mendorong pengguna aslinya untuk menambahkan verifikasi. LinkedIn cukup berhasil di sini, dengan lebih dari 100 juta anggotanya menambahkan verifikasi baru ini. Tapi AI menyulitkan untuk mengimbangi.

Orang menggunakan alat otomasi komunitas berbasis AI untuk membuat postingan AI dan meninggalkan komentar di ratusan akun acak dalam waktu yang jauh lebih singkat daripada dilakukan manual. Kelompok pengguna ini disebut engagement pods, kata Oscar Rodriguez, Wakil Presiden Produk Kepercayaan di LinkedIn. Perusahaan telah menghapus "ratusan grup LinkedIn" yang menunjukkan perilaku engagement-farming dalam beberapa bulan terakhir, tetapi mengidentifikasinya sulit.

"Tidak ada satu sinyal pasti yang bisa saya beritahukan yang membuat [suatu akun] tidak autentik atau palsu, tetapi kombinasi dari berbagai sinyal, perilaku akun-akun tersebut," kata Rodriguez.

Contohnya gambar hasil AI. Banyak orang menggunakan AI untuk membuat headshot baru agar tidak perlu membayar mahal untuk pemotretan, dan menggunakan itu sebagai foto profil tidak melanggar aturan LinkedIn. Jadi headshot AI saja tidak cukup untuk dicurigai. Tapi jika suatu akun memiliki foto profil AI dan menunjukkan tanda peringatan lain — seperti berkomentar lebih sering daripada yang LinkedIn ketahui secara internal sebagai tipikal pengguna manusia — itu menjadi lampu merah, ujar Rodriguez.

Untuk mendeteksi konten AI, platform mengandalkan pelabelan dan watermarking. Pelabelan mengharuskan orang mengungkapkan bahwa karya mereka dibuat dengan AI. Jika tidak, sistem pemantauan dapat berusaha menandainya sendiri. Salah satu sinyal terkuat yang diandalkan sistem ini adalah watermark, tanda tangan tak terlihat yang diterapkan selama pembuatan konten dan disembunyikan dalam metadata. Ini memberikan lebih banyak informasi tentang cara dan waktu sesuatu dibuat.

Sebagian besar teknik watermarking berfokus pada dua area: perusahaan perangkat keras yang mengautentikasi konten asli saat direkam, dan perusahaan AI yang menyematkan sinyal ke dalam media sintetis yang mereka hasilkan saat dibuat. Koalisi untuk Provenans dan Keaslian Konten (C2PA) adalah kelompok advokasi besar yang berusaha menstandarisasi cara media sintetis diberi watermark dengan content credentials.

Banyak, namun tidak semua, model AI kompatibel dengan kerangka kerja C2PA. Artinya, alat verifikasinya tidak dapat menandai setiap media hasil AI, yang menimbulkan inkonsistensi dan kebingungan. Separuh pengguna media sosial AS (51%) menginginkan pelabelan yang lebih baik, temuan CNET. Karena itu, solusi lain sedang dikerjakan untuk mengisi celah.

Abe Davis, profesor ilmu komputer di Universitas Cornell, memimpin tim yang mengembangkan cara menyematkan watermark dalam cahaya. Yang dibutuhkan hanyalah menyalakan lampu yang menggunakan chip diperlukan untuk menjalankan kodenya. Proses ini disebut sebagai noise-coded illumination. Setiap kamera yang merekam video suatu peristiwa di mana cahaya tersebut bersinar akan secara otomatis menambahkan watermark tersebut.

"Daripada menerapkan watermark ke data yang ditangkap oleh kamera tertentu, [noise-coded illumination] menerapkannya ke lingkungan cahaya itu sendiri. Setiap kamera yang merekam cahaya tersebut akan merekam watermark-nya," jelas Davis.

Watermark tersembunyi dalam frekuensi cahaya, tersebar di seluruh video, tidak terdeteksi oleh mata telanjang dan sulit dihilangkan. Mereka yang memiliki kode rahasia dapat mendekode watermark itu dan melihat bagian mana dari video atau gambar yang telah dimanipulasi, hingga tingkat piksel. Hal ini akan sangat membantu untuk acara langsung, seperti rapat politik dan konferensi pers, di mana pembicara menjadi target deepfake.

Meski belum tersedia secara komersial, penelitian ini menunjukkan berbagai peluang untuk menambahkan lapisan perlindungan ekstra dari AI. Davis menyebut bahwa watermarking adalah semacam masalah aksi kolektif. Semua pihak akan diuntungkan jika kita menerapkan semua pendekatan ini, tetapi tidak ada individu yang mendapat manfaat cukup besar. Itulah sebabnya upaya yang tersebar dan tidak terkoordinasi terjadi di berbagai industri yang sangat kompetitif dan berubah dengan cepat.

Pelabelan dan watermarking adalah alat penting dalam memerangi slop, tetapi itu tidak cukup sendiri. Sekadar memberi label AI tidak menghentikannya membanjiri hidup kita. Namun, itu adalah langkah pertama yang perlu.

Problem Penerbitan

Jika Anda mengira teks hasil AI lebih mudah diidentifikasi daripada gambar atau video, pikirkan lagi. Dunia penerbitan adalah salah satu target terbesar slop AI setelah media sosial. Chatbot dan AI Overviews dari Google melahap artikel dari sumber berita dan publikasi digital lain lalu mengeluarkan hasil yang aneh dan berpotensi melanggar hak cipta. Alat terjemahan dan pencatatan berbasis AI mengancam pekerjaan penerjemah dan sejarawan, tetapi pemahaman dangkal teknologi ini terhadap budaya dan nuansa membuatnya menjadi pengganti yang buruk.

Slop sangat merajalela dalam penerbitan akademik. Dalam budaya "terbit atau tenggelam" seperti akademisi, sebagian mungkin dibuat secara tidak sengaja atau keliru, terutama oleh peneliti dan penulis pemula. Namun, ia menyusup ke jurnal-jurnal mainstream, seperti studi yang kini sudah ditarik kembali yang viral karena menyertakan gambar sistem reproduksi tikus hasil AI yang jelas-jelas salah, terlalu falik, dan penuh salah ketik. Itu adalah satu contoh, meski lucu dan mudah dikenali, tentang bagaimana AI memacu penelitian buruk, terutama bagi perusahaan yang menjual penelitian palsu ke penerbit akademik, yang dikenal sebagai paper mills.

Basis data pra-penerbitan terhormat dan luas digunakan, arXiv, adalah salah satu target terbesar untuk slop AI. Direktur editorial Ramin Zabih dan direktur ilmiah Steinn Sigurdsson mengatakan kepada saya bahwa biasanya submisi meningkat sekitar 20% setiap tahun; kini, menurut Zabih, peningkatannya "secara mengkhawatirkan lebih cepat." Menurut mereka, AI yang harus disalahkan.

arXiv menerima sekitar 2.000 submisi per hari, setengahnya adalah revisi. Mereka memiliki alat penyaringan otomatis untuk membuang studi yang paling jelas curang atau hasil AI, tetapi sangat bergantung pada ratusan relawan yang meninjau sisanya sesuai bidang keahlian mereka. Mereka juga harus memperketat pedoman submisi, menerapkan sistem dukungan untuk memastikan hanya manusia nyata yang dapat berbagi penelitian. Sigurdsson mengakui ini bukan solusi sempurna, tetapi perlu untuk "membendung banjir" slop ilmiah.

"Korpus ilmu pengetahuan semakin terdilusi. Banyak materi AI itu salah secara aktif atau tidak bermakna. Itu hanya noise," kata Sigurdsson. "Itu membuat semakin sulit menemukan apa yang sesungguhnya terjadi, dan dapat menyesatkan orang."

Slop telah begitu banyak sampai-sampai satu kelompok penelitian menggunakan makalah curang itu untuk membangun alat machine learning yang dapat mengenalinya. Adrian Barnett, statistikawan dan peneliti di Queensland University of Technology, adalah bagian dari tim yang menggunakan makalah jurnal yang ditarik untuk melatih model bahasa guna mendeteksi studi palsu dan berpotensi hasil AI, khusus untuk penelitian kanker, sayangnya area target tinggi.

Artikel buatan paper mill "memiliki kemiripan dengan makalah," kata Barnett. "Mereka tahu bagaimana seharusnya bentuk sebuah makalah, lalu mereka memutar rodanya. Mereka mungkin mengganti penyakitnya, mengganti protein, mengganti gen dan presto, jadilah makalah baru."

MEMBACA  FC Semen Padang Diperkuat oleh Pemain Eropa yang Berasal dari MU Menjelang Liga 1 2024-2025

Alat ini bertindak seperti filter spam ilmiah. Ia mengidentifikasi pola, seperti frasa yang umum digunakan, dalam templat yang diandalkan chatbot dan pemalsu manusia untuk meniru gaya akademik. Ini adalah salah satu contoh bagaimana teknologi AI itu sendiri digunakan untuk melawan slop — AI melawan AI, dalam banyak kasus. Namun seperti alat verifikasi AI lainnya, ia terbatas; hanya dapat mengidentifikasi templat yang digunakan untuk melatihnya. Itulah sebabnya pengawasan manusia sangat penting.

Manusia memiliki naluri dan keahlian substansial yang tidak dimiliki AI. Misalnya, moderator arXiv pernah menandai serangkaian submisi palsu karena nama penulisnya terasa mencolok dan terlalu stereotip Inggris, seperti karakter dari Jane Eyre. Namun, permintaan untuk tinjauan manusia membawa risiko "spiral kematisan," kata Zahib, di mana beban kerja peninjau semakin besar dan tidak menyenangkan, menyebabkan mereka berhenti meninjau, menambah stres pada peninjau yang tersisa.

"Ada semacam perlombaan senjata antara menulis konten [AI] dan alat untuk mendeteksinya secara otomatis," kata Zahib. "Tetapi pada titik ini, saya segan mengatakannya, ini adalah pertempuran yang perlahan-lahan kita kalah."

Mungkinkah Ada Tempat Aman dari Slop?

Bagian dari masalah dengan slop — jika bukan keseluruhan masalahnya — adalah bahwa segelintir perusahaan yang menjalankan kehidupan online kita juga yang membangun AI. Meta menjejalkan AI-nya ke Instagram dan Facebook. Google mengintegrasikan Gemini ke setiap segmen bisnisnya yang luas, dari search hingga smartphone. X praktis tak terpisahkan dari Grok. Sangat sulit, dan dalam beberapa kasus mustahil, untuk menonaktifkan AI di perangkat dan situs tertentu. Para raksasa teknologi mengklaim bahwa penambahan AI bertujuan memperbaiki pengalaman pengguna. Namun, ini justru menciptakan konflik kepentingan yang signifikan ketika mereka harus mengendalikan "slop" (konten berkualitas rendah).

Mereka begitu ingin membuktikan bahwa model AI mereka diminati dan berfungsi baik. Kita hanyalah kelinci percobaan untuk meningkatkan statistik penggunaan mereka demi rapat investor triwulanan. Meski beberapa perusahaan telah memperkenalkan alat untuk mengatasi slop, itu masih jauh dari cukup. Mereka tidak benar-benar berminat menyelesaikan masalah yang mereka ciptakan sendiri.

"Platform tidak dapat dipisahkan dari para pembuat AI-nya," ujar Carrasco. "Apakah saya percaya perusahaan teknologi memiliki kompas yang benar mengenai AI? Sama sekali tidak."

Meta dan TikTok menolak berkomentar secara resmi mengenai upaya mengendalikan konten buatan AI. Juru bicara YouTube, Boot Bullwinkle, menyatakan, "AI adalah alat untuk kreativitas, bukan jalan pintas menuju kualitas," dan bahwa untuk memprioritaskan pengalaman berkualitas, perusahaan "akan cenderung tidak merekomendasikan konten yang berkualitas rendah atau repetitif."

Di sisi lain, beberapa perusahaan justru bergerak ke arah berlawanan. DiVine adalah salah satu aplikasi media sosial bebas AI, sebuah penghadiran kembali dari Vine, layanan video pendek yang singkat sebelum era TikTok. Dibuat oleh Evan Henshaw-Plath dengan pendanaan dari pendiri Twitter Jack Dorsey, aplikasi baru ini akan menyimpan arsip lebih dari 10.000 Vine asli — tak perlu lagi mencari kompilasi Vine di YouTube. Ini merupakan perpaduan menarik antara nostalgia akan internet yang lebih sederhana dan realitas alternatif di mana slop belum mendominasi.

"Kami tidak anti-AI," kata Alice Chan, CMO DiVine. "Kami hanya percaya bahwa orang layak mendapat tempat di mana mereka dapat mempercayai bahwa konten yang dilihat itu nyata dan dibuat oleh manusia."

Untuk mencegah video AI di platformnya, perusahaan bekerja sama dengan The Guardian Project untuk menggunakan sistem identifikasi bernama proof mode, berbasis kerangka C2PA, yang memverifikasi konten buatan manusia. Mereka juga berencana bekerja dengan laboratorium AI untuk "merancang pemeriksaan … yang melihat struktur dasar video-video ini," ungkap Henshaw-Plath dalam sebuah podcast awal tahun ini. Pengguna DiVine juga dapat melaporkan video AI, meski aplikasi tidak akan mengizinkan unggahan video saat peluncurannya, sehingga membantu mencegah slop menyusup.

Keaslian kini lebih penting dari sebelumnya, dan eksekutif media sosial menyadarinya. Pada Malam Tahun Baru, kepala Instagram Adam Mosseri menulis postingan panjang tentang perlunya kembali ke estetika "mentah" dan "tidak sempurna," mengkritik slop AI sambil membela penggunaan AI dalam paragraf yang sama. CEO YouTube Neal Mohan mengawali 2026 dengan surat yang secara eksplisit menyatakan slop adalah masalah dan platform perlu "mengurangi penyebaran konten repetitif berkualitas rendah."

Namun sulit membayangkan platform seperti Instagram dan YouTube dapat kembali ke budaya yang benar-benar berpusat pada orang, autentik, dan nyata selama mereka masih bergantung pada kurasi algoritmik, mendorong fitur AI, dan mengizinkan unggahan yang sepenuhnya dibuat AI. Aplikasi seperti Vine, yang tak pernah menuntut kesempurnaan atau mengembangkan AI, mungkin masih memiliki peluang.

Slopaganda dan Jaringan Rumit AI dalam Politik

AI telah menjadi pemain utama di politik, menciptakan estetika baru yang kuat dan memengaruhi opini, memuncak pada apa yang disebut slopaganda — konten AI yang secara khusus dibagikan untuk memanipulasi keyakinan guna mencapai tujuan politik, sebagaimana dijelaskan dalam satu studi awal.

AI sudah menjadi alat efektif untuk memengaruhi keyakinan kita, menurut studi terbaru Universitas Stanford. Peneliti ingin mengetahui apakah orang dapat mengidentifikasi pesan politik yang ditulis AI dan mengukur efektivitasnya dalam memengaruhi keyakinan. Saat membaca pesan buatan AI, sebagian besar responden (94%) tidak dapat membedakannya. Pesan politik buatan AI tersebut juga sama persuasifnya dengan yang ditulis manusia.

“Sangat sulit merancang pesan persuasif yang sesuai dengan perasaan orang,” kata Jan Voelkel, salah satu penulis studi. “Kami mengira ini adalah standar tinggi untuk model bahasa besar, dan kami terkejut karena mereka ternyata sudah mampu melakukannya dengan baik.”

Kemampuan AI merancang pesan politik yang berpengaruh bukanlah hal buruk jika dilakukan secara bertanggung jawab. Tetapi AI dapat disalahgunakan oleh pihak tak bertanggung jawab untuk menyebarkan misinformasi, kata Voelkel. Risikonya, tim misinformasi satu orang dapat menggunakan AI untuk memengaruhi opini dengan efisiensi lebih tinggi dari sebelumnya.

Salah satu bentuk pengaruh dan normalisasi slop dalam politik terlihat melalui citra visual. Meme AI merupakan bentuk baru komentar politik, seperti yang ditunjukkan oleh Presiden Donald Trump dan pemerintahannya: Gambar AI dari Gedung Putih yang memperlihatkan wanita menangis saat dideportasi; video kartun AI Trump tentang dirinya bermahkota dan menerbangkan jet tempur setelah protes “No Kings” nasional; sampul buku parodi Menteri Pertahanan Pete Hegseth yang menampilkan Franklin si Kura-kura memegang senapan mesin menembak kapal asing; serta gambar yang diedit AI yang mengubah wajah seorang wanita agar terlihat menangis setelah ditangkap karena memprotes ICE.

Pemerintahan memiliki wewenang untuk menentukan apakah dan bagaimana mengatur AI. Namun upaya legislatif sejauh ini masih terkesan serampangan dan tersebar. Negara-negara bagian telah bertindak, seperti dalam kasus Undang-Undang Transparansi AI California, pembatasan terhadap terapi AI di Illinois, serta aturan mengenai diskriminasi algoritmik di Colorado dan lainnya. Namun, undang-undang ini terperangkap dalam konflik antara pemerintah negara bagian dan pemerintah federal.

Trump menyatakan bahwa regulasi negara bagian yang tidak seragam akan menghambat AS “memenangkan” perlombaan AI global dengan memperlambat inovasi. Oleh karena itu, Departemen Kehakiman membentuk satuan tugas untuk menertibkan undang-undang AI negara bagian. Sementara itu, Rencana Aksi AI pemerintahan menyerukan pemotongan regulasi untuk pusat data AI dan mengusulkan kerangka kerja baru guna memastikan model AI “bebas dari bias ideologis top-down,” meski belum jelas bagaimana penerapannya.

MEMBACA  Judul yang Direvisi dan Diterjemahkan: "Kami Tidak Bekerja Sama dengan Israel, Belum Menutup Opsi Koordinasi dengan IDF" (Visual: Format jelas, teks terstruktur, tanpa komentar tambahan)

Pimpinan teknologi seperti Tim Cook (Apple), Jeff Bezos (Amazon), Sam Altman (OpenAI), Mark Zuckerberg (Meta), Bill Gates (Microsoft), dan Sundar Pichai (Alphabet) telah menemui Trump berkali-kali sejak ia menjabat. Dengan hubungan yang semakin erat dengan Gedung Putih, Google dan OpenAI telah menyambut baik dorongan untuk memotong birokrasi hukum dalam pengembangan AI.

Sementara pemerintah ragu-ragu dalam membuat regulasi, perusahaan teknologi leluasa untuk terus beroperasi sesuka hati, hanya dibatasi sedikit oleh beberapa undang-undang spesifik AI. Legislasi yang komprehensif dan dapat ditegakkan dapat mengendalikan luapan “sampah” AI yang berbahaya, namun hingga kini, pihak yang bertanggung jawab tampak tidak mampu atau tidak berkeinginan untuk melakukannya. Hal ini semakin jelas dengan maraknya deepfake AI dan penyalahgunaan berbasis gambar yang didukung AI.

## Deepfakes: Konten Palsu, Bahaya Nyata

Deepfake merupakan bentuk “sampah” AI yang paling licik. Ini adalah gambar dan video yang begitu realistis sehingga kita sulit membedakan keasliannya.

Deepfake telah ada sebelum AI populer. Namun, pembuatannya dulu mahal, memerlukan keahlian khusus, dan hasilnya tidak selalu meyakinkan. AI mengubah segalanya; model terbaru mampu menciptakan konten yang nyaris tak dapat dibedakan dari kenyataan. AI mendemokratisasi deepfake, dan kita semua menanggung akibatnya.

Kemampuan AI dalam memproduksi konten kasar atau ilegal telah lama menjadi kekhawatiran. Inilah sebabnya hampir semua perusahaan AI memiliki kebijakan yang melarang penggunaan tersebut. Namun, sistem mereka yang dirancang untuk mencegah penyalahgunaan terbukti tidak sempurna.

Ambil contoh aplikasi Sora dari OpenAI. Aplikasi ini meledak popularitasnya musim gugur lalu, memungkinkan pengguna membuat video dengan wajah dan suara mereka sendiri serta meniru rupa orang lain. Selebriti dan figur publik segera meminta OpenAI untuk menghentikan penggambaran merugikan terhadap mereka. Bryan Cranston, serikat aktor SAG-AFTRA, dan keluarga mendiang Martin Luther King Jr. semua menyampaikan kekhawatiran mereka, dan perusahaan berjanji akan membangun pengaman yang lebih kuat.

(Pernyataan: Ziff Davis, perusahaan induk CNET, pada 2025 mengajukan gugatan terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)

Sora memerlukan persetujuan Anda sebelum mengizinkan orang lain menggunakan rupa Anda. Grok, alat AI buatan xAI milik Elon Musk, tidak. Itulah sebabnya orang dapat menggunakan Grok untuk membuat gambar intim non-konsensual hasil AI.

Dari akhir Desember hingga awal Januari, banjir pengguna X meminta Grok untuk membuat gambar yang menanggalkan pakaian orang dalam foto yang dibagikan orang lain, terutama wanita. Menurut laporan New York Times, selama sembilan hari, Grok membuat 4,4 juta gambar, di mana 1,8 juta di antaranya bersifat seksual. Pusat Penangkal Kebencian Digital melakukan studi serupa, memperkirakan Grok membuat sekitar 3 juta gambar yang disexualisasi dalam 11 hari, dengan 23.000 di antaranya adalah gambar porno deepfake yang melibatkan anak-anak.

Itu berarti jutaan insiden pelecehan yang difasilitasi dan diotomatisasi secara efisien oleh AI. Tren yang merendahkan martabat ini menyoroti betapa mudahnya AI dijadikan senjata untuk pelecehan.

“Pelakunya bisa siapa saja, dan korbannya juga bisa siapa saja. Jika Anda memiliki foto daring, Anda bisa menjadi korban hal ini sekarang,” kata Dani Pinter, Kepala Petugas Hukum di Pusat Nasional untuk Eksploitasi Seksual.

X tidak menanggapi beberapa permintaan komentar.

Deepfake dan gambar intim non-konsensual adalah ilegal berdasarkan Undang-Undang Take It Down 2025, tetapi undang-undang tersebut juga memberi platform masa tenggang (hingga Mei) untuk menyiapkan proses penghapusan gambar terlarang. Mekanisme penegakan hukum hanya mengizinkan DOJ dan Komisi Perdagangan Federal untuk menyelidiki perusahaan, kata Pinter, bukan bagi individu untuk menggugat pelaku atau perusahaan teknologi. Belum ada organisasi yang membuka penyelidikan.

Deepfake menyentuh isu inti dari “sampah” AI: kurangnya kendali kita. Kita tahu AI dapat digunakan untuk tujuan jahat, tetapi kita tidak memiliki banyak kekuatan untuk melawan. Bahkan dalam gambaran besar, begitu banyak keributan seputar legislasi AI sehingga kita terpaksa bergantung pada para pembangun AI untuk memastikan keamanannya. Pengaman yang ada mungkin terkadang berfungsi, tetapi jelas tidak sepanjang waktu.

Penyalahgunaan seksual berbasis gambar AI oleh Grok itu “sangat dapat diprediksi dan dapat dicegah,” kata Pinter.

“Jika Anda mendesain mobil, dan Anda bahkan tidak memeriksa apakah peralatan tertentu akan meledak, Anda akan digugat habis-habisan,” ujarnya. “Itu standar dasar: Perilaku wajar dari entitas korporat … Sepertinya [xAI] tidak melakukan hal dasar itu.”

Kisah “sampah” AI, termasuk deepfake, adalah kisah tentang AI yang memungkinkan hal terburuk dari internet: penipuan, spam, dan pelecehan. Jika ada sisi positifnya, itu adalah bahwa kita belum mencapai akhir kisah ini. Banyak kelompok, advokat, dan peneliti berkomitmen untuk memerangi penyalahgunaan berbasis AI, baik melalui undang-undang baru, aturan baru, ataupun teknologi yang lebih baik.

## Perjuangan Yang Tak Ringan

Hampir setiap eksekutif teknologi yang membangun AI berargumen bahwa AI hanyalah alat terbaru yang dapat mempermudah hidup. Ada benarnya juga; AI kemungkinan akan mendorong kemajuan yang dinanti di bidang kedokteran dan manufaktur, contohnya. Namun, kita telah menyaksikan bahwa ini adalah instrumen yang sangat efisien—bahkan mengerikan—untuk penipuan, misinformasi, dan pelecehan. Lalu di manakah posisi kita, ketika *slop* AI membanjiri hidup kita tanpa adanya katup pengaman yang terlihat?

Kita tak akan pernah kembali ke internet era sebelum AI. Perlawanan terhadap *slop* AI adalah perjuangan untuk mempertahankan sisi kemanusiaan internet, suatu pertaruhan yang kini lebih penting dari sebelumnya. Internet terjalin erat dengan kemanusiaan kita, dan kita dibanjiri begitu banyak konten palsu hingga kita kelaparan akan sesuatu yang nyata. Menukar kepuasan instan dan sikap menjilat AI dengan pengalaman daring yang berakar pada realitas—mungkin dengan sedikit gesekan, namun jauh lebih autentik—itulah cara kita kembali menggunakan internet untuk hal yang memberi, bukan menguras.

Jika tidak, kita mungkin menuju ke **internet yang benar-benar mati**, di mana agen-agen AI saling berinteraksi untuk menciptakan ilusi aktivitas dan koneksi.

Menggantikan kemanusiaan dengan AI tidak akan berhasil. Kita telah mempelajari pelajaran ini dari media sosial. Lautan *slop* AI yang dulunya adalah media sosial justru menjauhkan kita dari tujuan asli teknologi itu: menghubungkan manusia.

“*AI slop* secara aktif berusaha menghancurkan itu. Ia aktif mencoba menggantikan bagian itu di *feed* Anda karena perhatian Anda terbatas, dan ia secara aktif menghilangkan koneksi yang pernah Anda miliki,” kata Carrasco. “Saya harap video AI dan *slop* AI membuat orang tersadar seberapa jauh kita telah tersesat.”

**Art Director** | Jeffrey Hazelwood
**Creative Director** | Viva Tung
**Video Presenter** | Katelyn Chedraoui
**Video Editor** | JD Christison
**Project Manager** | Danielle Ramirez
**Editor** | Corinne Reichert dan Jon Reed
**Director of Content** | Jonathan Skillings Sejatinya, mempelajari bahasa asing itu bukan sekadar tentang menghafal kosakata atau aturan tata bahasa. Namun, ini adalah perihal membuka jendela baru untuk melihat dunia. Bahasa memampukan kita terhubung dengan orang-orang dari beragam budaya, memahami perspektif mereka, dan akhirnya memperkaya cara pandang kita sendiri. Dengan demikian, usaha menguasai bahasa baru merupakan investasi yang sangat berharga bagi perkembangan pribadi.

Tinggalkan komentar