Kampanye Pengaruh Asing Belum Tahu Cara Menggunakan Kecerdasan Buatan (AI)

Hari ini, OpenAI merilis laporan ancaman pertamanya, yang mendetail bagaimana aktor dari Rusia, Iran, China, dan Israel telah mencoba menggunakan teknologinya untuk operasi pengaruh asing di seluruh dunia. Laporan tersebut menamai lima jaringan berbeda yang diidentifikasi dan ditutup oleh OpenAI antara tahun 2023 dan 2024. Dalam laporan tersebut, OpenAI mengungkapkan bahwa jaringan yang sudah mapan seperti Doppleganger Rusia dan Spamoflauge China sedang bereksperimen dengan cara menggunakan kecerdasan buatan generatif untuk mengotomatisasi operasi mereka. Mereka juga tidak terlalu mahir dalam hal itu.

Dan meskipun ini sedikit lega bahwa para aktor ini belum menguasai kecerdasan buatan generatif untuk menjadi kekuatan yang tak terhentikan untuk disinformasi, jelas bahwa mereka sedang bereksperimen, dan itu sendiri seharusnya mengkhawatirkan.

Laporan OpenAI mengungkapkan bahwa kampanye pengaruh sedang menghadapi batasan kecerdasan buatan generatif, yang tidak selalu menghasilkan teks atau kode yang baik. Ia kesulitan dengan idiom – yang membuat bahasa terdengar lebih manusiawi dan pribadi – dan kadang-kadang juga dengan tata bahasa dasar (sehingga OpenAI menamai satu jaringan “Tata Bahasa Buruk.”). Jaringan Tata Bahasa Buruk sangat ceroboh sehingga suatu saat ia mengungkapkan identitas aslinya: “Sebagai model bahasa AI, saya ada di sini untuk membantu dan memberikan komentar yang diinginkan,” ia posting.

Salah satu jaringan menggunakan ChatGPT untuk mendeteksi kode yang akan memungkinkannya mengotomatisasi posting di Telegram, aplikasi obrolan yang telah lama menjadi favorit ekstremis dan jaringan pengaruh. Ini kadang-kadang berhasil dengan baik, tetapi kadang-kadang mengakibatkan akun yang sama posting sebagai dua karakter terpisah, membocorkan permainannya.

Dalam kasus lain, ChatGPT digunakan untuk membuat kode dan konten untuk situs web dan media sosial. Spamoflauge, misalnya, menggunakan ChatGPT untuk mendeteksi kode untuk membuat situs web WordPress yang menerbitkan cerita menyerang anggota diaspora China yang kritis terhadap pemerintah negara itu.

MEMBACA  Tesla menyelesaikan gugatan kematian salah yang diajukan oleh keluarga insinyur Apple yang menggunakan Autopilot dalam perjalanan ke tempat kerja

Menurut laporan, konten yang dihasilkan oleh AI tidak berhasil keluar dari jaringan pengaruh itu sendiri ke mainstream, bahkan saat dibagikan di platform yang banyak digunakan seperti X, Facebook, dan Instagram. Ini terjadi pada kampanye yang dijalankan oleh perusahaan Israel yang tampaknya bekerja atas dasar kontrak dan memposting konten yang bervariasi dari anti-Qatar hingga anti-BJP, partai nasionalis Hindu yang saat ini mengendalikan pemerintah India.

Secara keseluruhan, laporan menggambarkan gambaran beberapa kampanye yang relatif tidak efektif dengan propaganda kasar, tampaknya meredakan kekhawatiran yang banyak ahli miliki tentang potensi teknologi baru ini untuk menyebar mis- dan disinformasi, terutama selama tahun pemilihan yang penting.

Namun kampanye pengaruh di media sosial sering berinovasi dari waktu ke waktu untuk menghindari deteksi, belajar platform dan alat mereka, kadang-kadang lebih baik daripada karyawan platform itu sendiri. Meskipun kampanye awal ini mungkin kecil atau tidak efektif, tampaknya masih berada dalam tahap eksperimental, kata Jessica Walton, seorang peneliti dengan CyberPeace Institute yang telah mempelajari penggunaan kecerdasan buatan generatif oleh Doppleganger.

Dalam penelitiannya, jaringan tersebut akan menggunakan profil Facebook yang terlihat nyata untuk memposting artikel, seringkali seputar topik politik yang memecah belah. “Artikel sebenarnya ditulis oleh kecerdasan buatan generatif,” katanya. “Dan sebagian besar dari apa yang mereka coba lakukan adalah melihat apa yang akan berhasil, apa yang algoritma Meta akan dan tidak akan dapat tangkap.”

Dengan kata lain, harapannya hanya akan semakin baik dari sini.