Sebuah kampanye disinformasi pro-Rusia memanfaatkan alat kecerdasan buatan (AI) konsumen untuk memicu “ledakan konten” yang berfokus pada memperburuk ketegangan seputar pemilu global, Ukraina, dan imigrasi, di antara isu-isu kontroversial lainnya, menurut riset terbaru yang diterbitkan minggu lalu.
Kampanye ini, dikenal dengan berbagai nama termasuk Operation Overload dan Matryoshka (peneliti lain juga menghubungkannya dengan Storm-1679), telah beroperasi sejak 2023 dan dikaitkan dengan pemerintah Rusia oleh berbagai kelompok, termasuk Microsoft dan Institute for Strategic Dialogue. Kampanye ini menyebarkan narasi palsu dengan meniru outlet media, tampaknya bertujuan menciptakan perpecahan di negara-negara demokratis. Meskipun menargetkan audiens di seluruh dunia, termasuk di AS, sasaran utama mereka adalah Ukraina. Ratusan video hasil manipulasi AI dari kampanye ini mencoba memperkuat narasi pro-Rusia.
Laporan tersebut menjelaskan bagaimana, antara September 2024 dan Mei 2025, jumlah konten yang diproduksi oleh pelaku kampanye meningkat drastis dan mendapat jutaan tayangan di seluruh dunia.
Dalam laporan, peneliti mengidentifikasi 230 konten unik yang dipromosikan oleh kampanye antara Juli 2023 dan Juni 2024, termasuk gambar, video, kode QR, dan situs web palsu. Namun, dalam delapan bulan terakhir, Operation Overload menghasilkan total 587 konten unik, sebagian besar dibuat dengan bantuan alat AI, kata para peneliti.
Para peneliti mengatakan lonjakan konten ini didorong oleh alat AI tingkat konsumen yang tersedia gratis secara online. Akses mudah ini membantu taktik “penggabungan konten” kampanye, di mana pelaku operasi dapat menghasilkan banyak konten dengan cerita yang sama berkat alat AI.
“Ini menandai pergeseran ke taktik propaganda yang lebih skalabel, multibahasa, dan semakin canggih,” tulis peneliti dari Reset Tech, LSM berbasis di London yang melacak kampanye disinformasi, dan Check First, perusahaan perangkat lunak asal Finlandia, dalam laporan. “Kampanye ini secara signifikan meningkatkan produksi konten baru dalam delapan bulan terakhir, menandai pergeseran ke metode pembuatan konten yang lebih cepat dan skalabel.”
Para peneliti juga terkejut dengan ragam alat dan jenis konten yang dikejar kampanye ini. “Yang mengejutkan saya adalah keragaman konten, berbagai jenis konten yang mereka mulai gunakan,” kata Aleksandra Atanasova, kepala peneliti intelijen sumber terbuka di Reset Tech, kepada WIRED. “Seperti mereka memperluas palet untuk mencakup berbagai sudut pandang cerita. Mereka melapisi berbagai jenis konten, satu demi satu.”
Atanasova menambahkan bahwa kampanye ini tampaknya tidak menggunakan alat AI khusus untuk mencapai tujuannya, melainkan memanfaatkan generator suara dan gambar berbasis AI yang bisa diakses siapa saja.
Meski sulit mengidentifikasi semua alat yang digunakan pelaku kampanye, peneliti berhasil mempersempit ke satu alat khusus: Flux AI.
Flux AI adalah generator teks-ke-gambar yang dikembangkan oleh Black Forest Labs, perusahaan asal Jerman yang didirikan mantan karyawan Stability AI. Menggunakan alat analisis gambar SightEngine, peneliti menemukan kemungkinan 99 persen bahwa sejumlah gambar palsu yang dibagikan kampanye Overload—beberapa mengklaim menunjukkan imigran Muslim yang rusuh dan membakar di Berlin serta Paris—dibuat menggunakan Flux AI.