Meskipun sudah ada bukti selama bertahun-tahun yang menyatakan sebaliknya, banyak anggota Partai Republik masih percaya bahwa kemenangan Presiden Joe Biden pada tahun 2020 adalah tidak sah. Sejumlah kandidat yang menolak hasil pemilu berhasil memenangkan pemilihan pendahuluan mereka selama Super Tuesday, termasuk Brandon Gill, menantu dari komentator sayap kanan Dinesh D’Souza dan promotor film 2000 Mules yang sudah terbantah. Menyambut pemilihan tahun ini, klaim kecurangan pemilu tetap menjadi hal yang umum bagi kandidat-kandidat yang berada di kanan, didorong oleh disinformasi baik secara online maupun offline.
Dan kemunculan kecerdasan buatan generatif memiliki potensi untuk memperparah masalah ini. Sebuah laporan terbaru dari Center for Countering Digital Hate (CCDH), sebuah lembaga nirlaba yang melacak ujaran kebencian di platform-platform sosial, menemukan bahwa meskipun perusahaan-perusahaan kecerdasan buatan generatif mengatakan telah menerapkan kebijakan untuk mencegah alat-alat pencipta gambar mereka digunakan untuk menyebarkan disinformasi terkait pemilu, para peneliti masih dapat mengelabui perlindungan mereka dan menciptakan gambar tersebut dengan cara lain.
Meskipun beberapa gambar menampilkan tokoh politik, khususnya Presiden Joe Biden dan Donald Trump, yang lainnya lebih bersifat generik. Callum Hood, peneliti utama di CCDH, khawatir bahwa gambar-gambar tersebut juga dapat lebih menyesatkan. Beberapa gambar yang dihasilkan oleh instruksi para peneliti, misalnya, menampilkan milisi di luar tempat pemungutan suara, surat suara dibuang ke tempat sampah, dan mesin pemungutan suara dimanipulasi. Dalam satu kejadian, para peneliti berhasil menginstruksikan DreamStudio dari Stability AI untuk menghasilkan gambar Presiden Biden di atas tempat tidur rumah sakit, terlihat sakit.
“Hal yang paling rentan adalah seputar gambar yang dapat digunakan untuk mencoba membuktikan klaim palsu tentang pemilu yang dicuri,” kata Hood. “Sebagian besar platform tidak memiliki kebijakan yang jelas mengenai hal tersebut, dan mereka juga tidak memiliki langkah-langkah keamanan yang jelas.”
Para peneliti CCDH menguji 160 instruksi pada ChatGPT Plus, Midjourney, DreamStudio, dan Image Creator, dan menemukan bahwa Midjourney paling mungkin menghasilkan gambar-gambar yang menyesatkan terkait pemilu, sekitar 65 persen dari waktu. Para peneliti hanya bisa menginstruksikan ChatGPT Plus untuk melakukannya sebanyak 28 persen dari waktu.
“Ini menunjukkan bahwa ada perbedaan signifikan antara langkah-langkah keamanan yang diterapkan oleh alat-alat ini,” kata Hood. “Jika satu alat mampu menutupi kelemahan-kelemahan ini dengan efektif, itu berarti yang lain tidak begitu peduli.”
Pada bulan Januari, OpenAI mengumumkan bahwa mereka sedang mengambil langkah-langkah untuk “memastikan teknologi kami tidak digunakan dengan cara yang dapat merusak proses ini,” termasuk melarang gambar yang akan menakut-nakuti orang untuk “berpartisipasi dalam proses demokratis.” Pada bulan Februari, Bloomberg melaporkan bahwa Midjourney sedang mempertimbangkan untuk melarang pembuatan gambar politik secara keseluruhan. DreamStudio melarang pembuatan konten yang menyesatkan, namun tidak tampak memiliki kebijakan khusus terkait pemilu. Sementara Image Creator melarang pembuatan konten yang dapat mengancam integritas pemilu, namun masih memungkinkan pengguna untuk menghasilkan gambar tokoh publik.
Kayla Wood, juru bicara OpenAI, mengatakan kepada WIRED bahwa perusahaan sedang berupaya untuk “meningkatkan transparansi pada konten yang dihasilkan oleh kecerdasan buatan dan merancang mitigasi seperti menolak permintaan yang meminta pembuatan gambar dari orang nyata, termasuk kandidat. Kami sedang mengembangkan alat-alat provenans, termasuk mengimplementasikan kredensial digital C2PA, untuk membantu memverifikasi asal-usul gambar yang dihasilkan oleh DALL-E 3. Kami akan terus menyesuaikan dan belajar dari penggunaan alat-alat kami.”
Microsoft, OpenAI, Stability AI, dan Midjourney tidak menanggapi permintaan komentar.
Hood khawatir bahwa masalah dengan kecerdasan buatan generatif memiliki dua sisi: Tidak hanya platform-platform kecerdasan buatan generatif perlu mencegah pembuatan gambar-gambar yang menyesatkan, tetapi platform-platform juga perlu mampu mendeteksi dan menghapusnya. Laporan terbaru dari IEEE Spectrum menemukan bahwa sistem Meta sendiri untuk memberikan watermark pada konten yang dihasilkan oleh kecerdasan buatan mudah dihindari.
“Saat ini platform-platform tidak terlalu siap untuk hal ini. Jadi, pemilu akan menjadi salah satu ujian nyata keamanan seputar gambar-gambar AI,” kata Hood. “Kita perlu alat-alat dan platform-platform tersebut membuat lebih banyak kemajuan dalam hal ini, terutama seputar gambar-gambar yang dapat digunakan untuk mempromosikan klaim-klaim tentang pemilu yang dicuri, atau menakut-nakuti orang untuk tidak memilih.”