Deteksi Pemalsuan AI Gagal Melayani Pemilih di Selatan Global

Tapi bukan hanya itu model tidak bisa mengenali aksen, bahasa, sintaksis, atau wajah yang kurang umum di negara-negara Barat. “Banyak alat deteksi deepfake awal dilatih pada media berkualitas tinggi,” kata Gregory. Tetapi di banyak bagian dunia, termasuk Afrika, merek ponsel Cina murah yang menawarkan fitur-fitur terbatas mendominasi pasar. Foto dan video yang bisa diproduksi oleh ponsel-ponsel ini jauh lebih rendah kualitasnya, membingungkan model deteksi lebih lanjut, kata Ngamita.

Gregory mengatakan bahwa beberapa model sangat sensitif sehingga bahkan noise latar belakang dalam audio, atau mengompres video untuk media sosial, bisa menghasilkan positif palsu atau negatif. “Tapi itu adalah situasi yang tepat yang Anda temui di dunia nyata, deteksi yang kasar,” katanya. Alat-alat gratis yang dapat diakses oleh sebagian besar jurnalis, pemeriksa fakta, dan anggota masyarakat sipil kemungkinan juga “yang sangat tidak akurat, dalam hal menangani ketidakadilan siapa yang diwakili dalam data pelatihan dan tantangan dalam menangani materi berkualitas rendah ini.”

Generative AI bukan satu-satunya cara untuk membuat media yang dimanipulasi. Cheapfakes, atau media yang dimanipulasi dengan menambahkan label yang menyesatkan atau hanya memperlambat atau mengedit audio dan video, juga sangat umum di Dunia Selatan, tetapi bisa salah diidentifikasi sebagai AI-manipulasi oleh model yang rusak atau peneliti yang tidak terlatih.

Diya khawatir bahwa kelompok yang menggunakan alat yang lebih cenderung melaporkan konten dari luar AS dan Eropa sebagai AI yang dihasilkan bisa memiliki dampak serius pada tingkat kebijakan, mendorong legislator untuk menindak masalah yang tidak nyata. “Ada risiko besar dalam hal membesarkan angka-angka semacam itu,” katanya. Dan mengembangkan alat baru bukanlah masalah menekan tombol.

MEMBACA  Pembaruan Android: Kunci Deteksi Pencurian Tahu Saat Ponsel Anda Dicuri

Sama seperti bentuk AI lainnya, membangun, menguji, dan menjalankan model deteksi memerlukan akses ke energi dan pusat data yang tidak tersedia di banyak bagian dunia. “Jika Anda berbicara tentang AI dan solusi lokal di sini, hampir tidak mungkin tanpa sisi komputasi bagi kami untuk menjalankan model-model yang sedang kami pikirkan,” kata Ngamita, yang berbasis di Ghana. Tanpa alternatif lokal, para peneliti seperti Ngamita terbatas pada beberapa pilihan: membayar untuk mengakses alat siap pakai seperti yang ditawarkan oleh Reality Defender, biayanya bisa melarang; menggunakan alat gratis yang tidak akurat; atau mencoba mendapatkan akses melalui lembaga akademis.

Untuk saat ini, Ngamita mengatakan bahwa timnya harus bermitra dengan universitas Eropa di mana mereka dapat mengirimkan potongan konten untuk diverifikasi. Tim Ngamita telah mengumpulkan kumpulan data tentang kemungkinan contoh deepfake dari seluruh benua, yang katanya berharga bagi akademisi dan peneliti yang mencoba mendiversifikasi kumpulan data model mereka.

Tetapi mengirimkan data ke orang lain juga memiliki kerugiannya. “Waktu keterlambatan cukup signifikan,” kata Diya. “Butuh setidaknya beberapa minggu sebelum seseorang bisa dengan percaya diri mengatakan bahwa ini dihasilkan oleh AI, dan pada saat itu, konten tersebut, kerusakan sudah terjadi.”

Gregory mengatakan bahwa Witness, yang menjalankan program deteksi tanggap cepat mereka sendiri, menerima “jumlah besar” kasus. “Sudah sulit untuk menangani itu dalam kerangka waktu yang dibutuhkan jurnalis garis depan, dan pada volume yang mulai mereka hadapi,” katanya.

Namun, Diya mengatakan bahwa fokus terlalu banyak pada deteksi dapat mengalihkan dana dan dukungan dari organisasi dan lembaga yang membuat ekosistem informasi lebih tangguh secara keseluruhan. Sebagai gantinya, katanya, dana perlu dialihkan ke outlet berita dan organisasi masyarakat sipil yang dapat menumbuhkan rasa kepercayaan publik. “Saya tidak berpikir uang itu pergi ke sana,” katanya. “Saya pikir itu lebih banyak tentang deteksi.”

MEMBACA  Ledakan di luar sinagoge di selatan Perancis melukai polisi