Cara Membedakan Kerumunan Kampanye Kamala Harris Bukan Hasil Kecerdasan Buatan

Sederhananya, bukti dari sumber langsung ini jauh lebih berat daripada gambar yang dimanipulasi dari komentator konservatif seperti Chuck Callesto dan Dinesh D’Souza, keduanya pernah terbukti menyebarkan disinformasi pemilihan umum di masa lalu.

Saat menyangkut tuduhan kebohongan AI, semakin banyak sumber informasi yang berbeda yang Anda miliki, semakin baik. Meskipun satu sumber dapat dengan mudah menghasilkan gambar yang terlihat masuk akal dari suatu peristiwa, beberapa sumber independen yang menunjukkan peristiwa yang sama dari berbagai sudut pandang jauh lebih tidak mungkin berada dalam rencana yang sama. Foto yang sejajar dengan bukti video bahkan lebih baik, terutama karena menciptakan video jangka panjang yang meyakinkan tentang manusia atau adegan kompleks tetap menjadi tantangan bagi banyak alat AI.

Juga penting untuk melacak sumber asli dari gambar AI yang diduga Anda lihat. Sangat mudah bagi pengguna media sosial untuk membuat gambar yang dihasilkan AI, mengklaim bahwa itu berasal dari laporan berita atau rekaman langsung dari suatu peristiwa, lalu menggunakan kekurangan yang jelas dalam gambar palsu tersebut sebagai “bukti” bahwa peristiwa itu sendiri palsu. Tautan ke gambar asli dari situs web sumber asli atau akun yang diverifikasi jauh lebih dapat diandalkan daripada tangkapan layar yang mungkin berasal dari mana saja (dan/atau dimodifikasi oleh siapa pun).

Tanda-tanda khas

Saat melacak sumber asli dan/atau yang saling mendukung berguna untuk acara berita besar seperti rapat presiden, mengonfirmasi keaslian gambar dan video yang berasal dari satu sumber bisa lebih sulit. Alat seperti Detektor Gambar AI Winston atau IsItAI.com mengklaim menggunakan model pembelajaran mesin untuk mengetahui apakah suatu gambar berasal dari AI. Namun, meskipun teknik deteksi terus berkembang, jenis alat ini umumnya didasarkan pada teori yang belum terbukti dapat diandalkan dalam studi luas apa pun, membuat kemungkinan positif/negatif palsu menjadi risiko nyata.

MEMBACA  Tim Godzilla Minus Satu Merespons Paling Baik atas Nominasi Oscar Mereka

Menulis di LinkedIn, profesor UC Berkeley Hany Farid mengutip dua model GetReal Labs yang menunjukkan “tidak ada bukti pembuatan AI” dalam foto rapat Harris yang diposting oleh Trump. Farid melanjutkan dengan mengutip bagian spesifik dari gambar yang menunjukkan keasliannya.

“Teks di tanda dan pesawat tidak menunjukkan tanda-tanda biasa dari AI generatif,” tulis Farid. “Sementara kurangnya bukti manipulasi bukanlah bukti bahwa gambar itu nyata. Kami tidak menemukan bukti bahwa gambar ini dihasilkan oleh AI atau diubah secara digital.”

Dan bahkan ketika bagian dari foto terlihat tidak masuk akal sebagai tanda manipulasi AI (seperti tangan yang tidak beraturan dalam beberapa model gambar AI), pertimbangkan bahwa mungkin ada penjelasan sederhana untuk beberapa ilusi optik yang tampaknya aneh. BBC mencatat bahwa ketiadaan pantulan kerumunan di pesawat dalam beberapa foto rapat Harris bisa disebabkan oleh area aspal yang besar dan kosong antara pesawat dan kerumunan, seperti yang ditunjukkan dalam sudut pandang terbalik dari adegan tersebut. Hanya dengan mengelilingi hal-hal yang terlihat aneh dalam sebuah foto dengan spidol merah belum tentu merupakan bukti kuat dari manipulasi AI itu sendiri.