Pemerintahan Trump tidak ragu untuk membagikan gambar buatan AI di internet. Mereka sering memakai visual seperti kartun dan meme serta menyebarkannya di akun resmi Gedung Putih.
Tapi, gambar yang diedit dan terlihat nyata dari pengacara hak sipil Nekima Levy Armstrong sedang menangis setelah ditangkap, sekarang menimbulkan kekhawatiran baru. Gambar ini membuat batasan antara yang asli dan palsu jadi kabur.
Akun Menteri Keamanan Dalam Negeri Kristi Noem membagikan foto asli penangkapan Levy Armstrong. Kemudian, akun resmi Gedung Putih membagikan versi yang diubah yang menunjukkan dia menangis. Gambar yang sudah dimanipulasi ini adalah bagian dari banjir gambar suntingan AI yang dibagikan oleh banyak kelompok politik, terutama setelah penembakan Renee Good dan Alex Pretti oleh petugas Patroli Perbatasan di Minneapolis.
Namun, penggunaan AI oleh Gedung Putih membuat para ahli informasi salah khawatir. Mereka takut penyebaran gambar buatan atau suntingan AI akan merusak persepsi publik tentang kebenaran dan menanamkan ketidakpercayaan.
Menanggapi kritik tentang gambar Levy Armstrong yang diedit, pejabat Gedung Putih malah bersikukuh. Wakil direktur komunikasi Kaelan Dorr menulis di X bahwa “meme akan terus berlanjut.” Wakil juru bicara Gedung Putih Abigail Jackson juga membagikan postingan yang mengejek kritik tersebut.
David Rand, seorang profesor sains informasi di Universitas Cornell, mengatakan menyebut gambar yang diubah itu sebagai meme “kelihatannya seperti usaha untuk menjadikannya lelucon atau postingan lucu, seperti kartun mereka sebelumnya. Ini mungkin bertujuan untuk melindungi mereka dari kritik karena membagikan media yang dimanipulasi.” Ia mengatakan tujuan membagikan gambar penangkapan yang diubah itu kelihatannya “jauh lebih ambigu” dibanding gambar-gambar kartun yang pernah dibagikan pemerintahan sebelumnya.
Meme selalu membawa pesan berlapis yang lucu atau informatif bagi yang paham, tapi tidak jelas bagi orang luar. Gambar yang ditingkatkan atau diedit dengan AI hanyalah alat terbaru yang dipakai Gedung Putih untuk menarik perhatian pendukung Trump yang banyak menghabiskan waktu di internet, kata Zach Henry, seorang konsultan komunikasi Republik.
“Orang yang selalu online akan melihatnya dan langsung mengenalinya sebagai meme,” katanya. “Kakek-nenek Anda mungkin melihatnya dan tidak paham memenya, tapi karena kelihatan nyata, itu membuat mereka bertanya pada anak atau cucu mereka.”
Lebih bagus lagi kalau itu memicu reaksi keras, yang membantu jadi viral, kata Henry, yang umumnya memuji kerja tim media sosial Gedung Putih.
Pembuatan dan penyebaran gambar yang diubah, terutama ketika dibagikan oleh sumber terpercaya, “mengkristalkan sebuah ide tentang apa yang terjadi, alih-alih menunjukkan apa yang sebenarnya terjadi,” kata Michael A. Spikes, profesor di Universitas Northwestern.
“Pemerintah seharusnya menjadi tempat Anda bisa percaya informasinya, di mana Anda bisa bilang itu akurat, karena mereka punya tanggung jawab untuk itu,” katanya. “Dengan membagikan konten seperti ini… itu mengikis kepercayaan — meski saya selalu agak skeptis dengan istilah kepercayaan — tapi kepercayaan yang seharusnya kita punya pada pemerintah federal untuk memberi informasi akurat dan terverifikasi. Itu kerugian nyata, dan sangat membuat saya khawatir.”
Spikes mengatakan dia sudah melihat “krisis kelembagaan” seputar ketidakpercayaan pada organisasi berita dan pendidikan tinggi, dan merasa perilaku ini dari saluran resmi memperparah masalah itu.
Ramesh Srinivasan, profesor di UCLA, mengatakan banyak orang sekarang bertanya-tanya ke mana harus mencari “informasi yang bisa dipercaya.” “Sistem AI hanya akan memperburuk, memperkuat dan mempercepat masalah-masalah ketiadaan kepercayaan ini, bahkan ketiadaan pemahaman tentang apa yang bisa dianggap realitas atau kebenaran atau bukti,” katanya.
Srinivasan mengatakan dia merasa Gedung Putih dan pejabat lain yang membagikan konten buatan AI tidak hanya mengajak orang biasa untuk terus memposting konten serupa, tapi juga memberi izin kepada orang lain yang punya kredibilitas dan kekuasaan, seperti pembuat kebijakan, untuk membagikan konten sintetis tanpa label. Dia menambahkan, mengingat platform media sosial cenderung “istimewakan secara algoritma” konten ekstrem dan konspirasi — yang bisa dibuat dengan mudah oleh alat pembuat AI — “kita menghadapi serangkaian tantangan yang sangat besar.”
Banyak video buatan AI terkait aksi Imigrasi dan Penegakan Bea Cukai (ICE), protes, dan interaksi dengan warga sudah menyebar di media sosial. Setelah Renee Good ditembak oleh petugas ICE saat berada di mobilnya, beberapa video buatan AI beredar yang menunjukkan wanita mengemudi menjauh dari petugas ICE yang menyuruh mereka berhenti. Ada juga banyak video palsu tentang penggerebekan imigrasi dan orang-orang yang menghadapi petugas ICE, sering berteriak atau melempar makanan ke wajah mereka.
Jeremy Carrasco, seorang pembuat konten yang ahli dalam literasi media dan membuktikan video AI viral salah, mengatakan sebagian besar video ini kemungkinan datang dari akun yang “mencari engagement”, atau ingin mendapatkan keuntungan dari klik dengan membuat konten menggunakan kata kunci populer seperti ICE. Tapi dia juga mengatakan video-video itu ditonton oleh orang-orang yang menentang ICE dan DHS dan mungkin menontonnya seperti “fan fiction”, atau melakukan “wishful thinking”, berharap mereka melihat perlawanan nyata terhadap organisasi dan petugasnya.
Namun, Carrasco juga percaya bahwa kebanyakan penonton tidak bisa membedakan apakah yang mereka tonton palsu, dan mempertanyakan apakah mereka akan tahu “mana yang nyata atau tidak ketika benar-benar penting, seperti ketika taruhannya jauh lebih tinggi.”
Bahkan ketika ada tanda-tanda jelas pembuatan AI, seperti rambu jalan dengan tulisan acak atau kesalahan jelas lainnya, hanya dalam “skenario terbaik” penonton akan cukup paham atau cukup memperhatikan untuk menyadari penggunaan AI.
Masalah ini, tentu saja, tidak terbatas pada berita seputar penegakan imigrasi dan protes. Gambar-gambar palsu dan yang disalahrepresentasikan setelah penangkapan mantan pemimpin Venezuela Nicolás Maduro juga membanjiri internet awal bulan ini. Para ahli, termasuk Carrasco, berpikir penyebaran konten politik buatan AI hanya akan menjadi lebih biasa.
Carrasco percaya bahwa penerapan sistem watermarking yang menyematkan informasi tentang asal-usul sebuah media ke dalam lapisan metadata-nya bisa menjadi langkah menuju solusi. Koalisi untuk Asal Usul dan Keaslian Konten telah mengembangkan sistem seperti itu, tapi Carrasco tidak berpikir itu akan diadopsi secara luas setidaknya untuk satu tahun ke depan.
“Ini akan menjadi masalah selamanya sekarang,” katanya. “Saya tidak berfikir orang paham betapa buruknya ini.”
__
Kontribusi untuk laporan ini dari penulis Associated Press Jonathan J. Cooper di Phoenix dan Barbara Ortutay di San Francisco.