Tampaknya meskipun internet semakin tenggelam dalam gambar palsu, kita setidaknya dapat mengambil beberapa stok dalam kemampuan manusia untuk mencium bau BS ketika penting. Sejumlah penelitian terbaru menunjukkan bahwa desinformasi yang dihasilkan AI tidak memiliki dampak material pada pemilihan tahun ini di seluruh dunia karena belum terlalu bagus.
Telah banyak kekhawatiran selama bertahun-tahun bahwa konten sintetis yang semakin realistis dapat memanipulasi audiens dengan cara yang merugikan. Munculnya AI generatif memunculkan kembali ketakutan tersebut, karena teknologi ini membuatnya jauh lebih mudah bagi siapa pun untuk membuat media visual dan audio palsu yang tampak nyata. Kembali pada bulan Agustus, seorang konsultan politik menggunakan AI untuk memalsukan suara Presiden Biden untuk robo-call yang memberitahu pemilih di New Hampshire untuk tinggal di rumah selama pemilihan pendahuluan Demokrat negara bagian itu.
Tools seperti ElevenLabs membuatnya memungkinkan untuk mengirimkan potongan suara singkat seseorang berbicara dan kemudian menduplikasi suaranya untuk mengatakan apa pun yang diinginkan pengguna. Meskipun banyak alat AI komersial termasuk pagar untuk mencegah penggunaan ini, model open-source tersedia.
Meskipun kemajuan ini, Financial Times dalam sebuah cerita baru melihat kembali tahun itu dan menemukan bahwa, di seluruh dunia, sangat sedikit konten politik sintetis yang menyebar luas.
Mengutip laporan dari Alan Turing Institute yang menemukan bahwa hanya 27 buah konten yang dihasilkan AI yang menyebar luas selama pemilihan Eropa musim panas. Laporan tersebut menyimpulkan bahwa tidak ada bukti pemilihan dipengaruhi oleh disinformasi AI karena “sebagian besar paparan terpusat di antara sekelompok pengguna dengan keyakinan politik yang sudah sejalan dengan narasi ideologis yang tertanam dalam konten tersebut.” Dengan kata lain, di antara sedikit orang yang melihat konten (sebelum kemungkinan ditandai) dan sudah siap untuk mempercayainya, itu memperkuat keyakinan tentang seorang kandidat bahkan jika yang terpapar mengetahui kontennya sendiri dihasilkan oleh AI. Laporan tersebut mengutip contoh gambar-gambar yang dihasilkan AI yang menunjukkan Kamala Harris berpidato di depan bendera Uni Soviet.
Di AS, Proyek Literasi Berita mengidentifikasi lebih dari 1.000 contoh disinformasi tentang pemilihan presiden, tetapi hanya 6% dibuat menggunakan AI. Pada X, sebutan “deepfake” atau “AI-generated” dalam Catatan Komunitas biasanya hanya disebutkan dengan rilis model generasi gambar baru, bukan sekitar waktu pemilihan.
Menariknya, tampaknya pengguna media sosial lebih mungkin salah mengidentifikasi gambar-gambar nyata sebagai dihasilkan AI daripada sebaliknya, tetapi secara umum, pengguna menunjukkan dosis skeptis yang sehat. Dan media palsu masih bisa dibantah melalui saluran komunikasi resmi, atau melalui cara lain seperti pencarian gambar terbalik Google.
Sulit untuk mengukur dengan pasti berapa banyak orang yang terpengaruh oleh deepfake, tetapi temuan bahwa mereka tidak efektif akan masuk akal. Gambar AI ada di mana-mana saat ini, tetapi gambar yang dihasilkan menggunakan kecerdasan buatan masih memiliki kualitas yang mengganggu, menunjukkan tanda-tanda khas menjadi palsu. Lengan mungkin sangat panjang, atau wajah tidak mencerminkan ke permukaan cermin dengan benar; ada banyak petunjuk kecil yang akan mengungkapkan bahwa gambar tersebut adalah sintetis. Photoshop dapat digunakan untuk membuat pemalsuan yang jauh lebih meyakinkan, tetapi melakukannya membutuhkan keterampilan.
Pendukung AI seharusnya tidak langsung bersorak atas berita ini. Ini berarti bahwa gambar-gambar yang dihasilkan masih memiliki jalan yang harus ditempuh. Siapa pun yang telah melihat model Sora dari OpenAI tahu bahwa video yang dihasilkannya tidak begitu bagus – tampak hampir seperti sesuatu yang dibuat oleh mesin grafis permainan video (spekulasi adalah bahwa itu dilatih di video game), yang jelas tidak memahami properti seperti fisika.
Yang semua itu dikatakan, masih ada kekhawatiran yang harus diatasi. Laporan Institut Alan Turing akhirnya menyimpulkan bahwa keyakinan dapat diperkuat oleh deepfake realistis yang mengandung disinformasi bahkan jika audiens tahu media tersebut tidak nyata; kebingungan seputar apakah suatu media nyata merusak kepercayaan pada sumber online; dan gambar AI telah digunakan untuk menargetkan politisi perempuan dengan deepfake pornografi, yang dapat merusak secara psikologis dan reputasi profesional mereka karena memperkuat keyakinan seksis.
Teknologi pasti akan terus meningkat, jadi ini sesuatu yang perlu diperhatikan.