OpenAI sedang menyaring lebih banyak aktor jahat menggunakan model AI-nya. Dan, untuk pertama kalinya bagi perusahaan, mereka telah mengidentifikasi dan menghapus akun Rusia, Tiongkok, dan Israel yang digunakan dalam operasi pengaruh politik.
Menurut laporan baru dari tim deteksi ancaman platform, platform tersebut menemukan dan menghentikan lima akun yang terlibat dalam operasi pengaruh rahasia, seperti bot penuh propaganda, penghapus media sosial, dan pembuat artikel palsu.
“OpenAI berkomitmen untuk menegakkan kebijakan yang mencegah penyalahgunaan dan untuk meningkatkan transparansi seputar konten yang dihasilkan oleh AI,” tulis perusahaan tersebut. “Hal tersebut terutama berlaku dalam mendeteksi dan mengganggu operasi pengaruh rahasia (IO), yang berusaha memanipulasi opini publik atau mempengaruhi hasil politik tanpa mengungkapkan identitas atau niat sebenarnya dari para pelaku di baliknya.”
LIHAT JUGA:
OpenAI meluncurkan tim keamanan internal baru dengan Sam Altman di kendali
Akun-akun yang dihentikan termasuk mereka di balik operasi Telegram Rusia yang dijuluki “Salah Grammar” dan mereka yang memfasilitasi perusahaan Israel STOIC. STOIC ditemukan menggunakan model OpenAI untuk menghasilkan artikel dan komentar yang memuji pengepungan militer Israel saat ini, yang kemudian diposting di platform Meta, X, dan lainnya.
OpenAI mengatakan kelompok aktor rahasia menggunakan berbagai alat untuk “berbagai tugas, seperti menghasilkan komentar singkat dan artikel lebih panjang dalam berbagai bahasa, membuat nama dan bio untuk akun media sosial, melakukan penelitian sumber terbuka, debugging kode sederhana, dan menerjemahkan serta memeriksa teks.”
Pada bulan Februari, OpenAI mengumumkan telah menghentikan beberapa akun “aktor jahat asing” yang ditemukan terlibat dalam perilaku yang mencurigakan serupa, termasuk menggunakan layanan terjemahan dan koding OpenAI untuk memperkuat potensi serangan siber. Upaya itu dilakukan bekerja sama dengan Microsoft Threat Intelligence.
Saat komunitas bersiap untuk serangkaian pemilu global, banyak yang memperhatikan kampanye disinformasi yang didukung AI. Di AS, video dan audio AI deep-faked dari selebriti, bahkan kandidat presiden, menyebabkan panggilan federal kepada pemimpin teknologi untuk menghentikan penyebarannya. Dan laporan dari Center for Countering Digital Hate menemukan bahwa — meskipun komitmen integritas pemilu dari banyak pemimpin AI — kloning suara AI masih mudah dimanipulasi oleh aktor jahat.
Pelajari lebih lanjut tentang bagaimana AI mungkin berperan dalam pemilu tahun ini, dan bagaimana Anda dapat meresponsnya.