Pada hari Senin, sebuah akun Reddit baru muncul di forum populer r/AmItheAsshole, tempat pengguna meminta arbitrase sengketa pribadi dari orang asing. Pengguna ini bertanya apakah mereka telah melewati batas dengan “menolak menjaga anak-anak ibu tiriku karena aku punya pekerjaan dan tanggung jawab sendiri.” Postingannya sendiri singkat, lugas, dan secara tata bahasa bersih, menjelaskan situasi di mana ibu tiri dan ayahnya sering kali mengharapkan mereka untuk mengasuh anak dengan pemberitahuan mendadak, yang akhirnya memicu pertengkaran.
“Sekarang ada ketegangan di rumah, dan aku mulai bertanya-tanya apakah aku menanganinya dengan cara yang salah,” simpul redditor tersebut. “Aku mengerti bahwa membesarkan anak memang penuh stres, tetapi aku juga merasa tidak seharusnya diwajibkan untuk mengambil tanggung jawab itu karena itu bukan peranku.” Tanggapan terhadap individu ini sebagian besar mendukung: Banyak orang membalas bahwa anak-anak itu bukan tanggungan mereka, dan pindah dari rumah akan menjadi langkah terbaik.
Namun, menurut perangkat lunak deteksi AI yang dikembangkan oleh Pangram Labs—yang mengklaim akurasi 99,98 persen dan tingkat positif palsu hanya satu dari 10.000—kisah awal perselisihan keluarga itu dihasilkan oleh AI.
Saya melihatnya ditandai sebagai konten AI saat menggulir halaman berkat versi terbaru ekstensi Chrome Pangram, yang diluncurkan untuk publik minggu ini; pada tingkat berbayar $20 per bulan, alat ini memindai postingan di situs media sosial termasuk Reddit, X, LinkedIn, Medium, dan Substack secara real-time, melabelinya sebagai tulisan manusia, hasil AI, atau dibuat dengan bantuan AI. Analisisnya juga mencakup ukuran keyakinan Pangram terhadap kesimpulannya: rendah, sedang, atau tinggi.
Para peneliti menemukan *AI slop* di mana-mana secara daring. Praktik ini merusak jurnalisme dan platform sosial secara setara. Teks yang dihasilkan setidaknya sebagian oleh AI menyumbang lebih dari sepertiga dari semua situs web baru hingga 2025, menurut sebuah studi yang diterbitkan bulan ini oleh peneliti dari Universitas Stanford, Imperial College London, dan Internet Archive. (Para peneliti menggunakan alat Pangram sebelumnya untuk sampai pada temuan mereka.)
Kekacauan inilah yang ingin dibersihkan oleh Max Spero, CEO Pangram dan seorang “petugas kebersihan slop” yang menyatakan diri. Dia mengatakan kepada WIRED bahwa menambahkan analisis instan ke ekstensi peramban perusahaan menawarkan cara yang lebih mulus bagi orang-orang untuk memeriksa konten AI di situs yang sering mereka kunjungi.
“Dengan menyediakan pemeriksaan proaktif, ini bisa jauh lebih berguna bagi orang yang pada umumnya peduli untuk tidak melihat *slop*,” jelas Spero. “Sangat berat untuk menyalin beberapa teks ke alat eksternal. Orang-orang tidak akan melakukannya.”
Tentu saja, skenario fiktif bukanlah hal yang luar biasa di subreddit seperti r/AmItheAsshole, di mana para troll dikenal memposting umpan interaksi yang terdiri dari fiksi yang sangat absurd. Namun, bahkan pembaca yang tajam mungkin tidak menduga bahwa narasi yang relatif biasa seperti yang dijelaskan di atas berpotensi palsu. (Redditor yang membagikannya tidak menanggapi permintaan komentar mengenai apakah mereka menggunakan AI atau apa yang ingin mereka capai dengan postingan tersebut, yang kemudian mereka hapus.)
Meskipun tidak ada sistem deteksi AI yang sempurna, sistem Pangram dianggap paling konsisten dan akurat oleh peneliti pihak ketiga di beberapa universitas; sebuah studi Universitas Chicago 2025 yang mengaudit perangkat lunak deteksi AI memberikan Pangram peringkat tertinggi dan mencatat bahwa tingkat positif palsunya hampir nol, terutama pada teks yang lebih panjang. Spero mengatakan bahwa salah satu alasan kinerjanya mengungguli pesaing adalah karena alat ini dilatih sebagian pada “contoh yang lebih sulit yang lebih dekat dengan batas antara AI dan manusia.” Saya tidak berhasil membuatnya menghasilkan positif palsu saat mengujinya pada artikel yang diterbitkan di WIRED.