Yuichiro Chino/Getty Images
Kelompok kejahatan cyber telah mengambil langkah awal untuk menggunakan kecerdasan buatan generatif untuk melakukan serangan, termasuk model bahasa besar Llama 2 milik Meta, menurut perusahaan keamanan cyber CrowdStrike dalam Laporan Ancaman Global tahunannya, yang diterbitkan pada hari Rabu.
Grup Scattered Spider memanfaatkan model bahasa besar milik Meta untuk menghasilkan skrip untuk program otomasi tugas PowerShell dari Microsoft, melaporkan CrowdStrike. Program tersebut digunakan untuk mengunduh kredensial login karyawan di “korban layanan keuangan Amerika Utara,” menurut CrowdStrike.
Penulis melacak penggunaan Llama 2 dengan memeriksa kode di PowerShell. “PowerShell yang digunakan untuk mengunduh ID immutable pengguna menyerupai keluaran model bahasa besar (LLM) seperti yang dari ChatGPT,” menyatakan CrowdStrike. “Secara khusus, pola satu komentar, perintah aktual, dan kemudian baris baru untuk setiap perintah sesuai dengan keluaran model Llama 2 70B. Berdasarkan gaya kode yang mirip, Scattered Spider kemungkinan mengandalkan LLM untuk menghasilkan skrip PowerShell dalam aktivitas ini.”
Penulis memperingatkan bahwa kemampuan mendeteksi serangan berbasis kecerdasan buatan generatif atau yang ditingkatkan oleh kecerdasan buatan saat ini terbatas, karena sulitnya menemukan jejak penggunaan LLM. Perusahaan berspekulasi bahwa penggunaan LLM masih terbatas hingga saat ini: “Hanya sedikit pengamatan konkret mencakup kemungkinan penggunaan musuh generatif kecerdasan buatan selama beberapa fase operasional.”
Tetapi penggunaan jahat kecerdasan buatan generatif dipastikan akan meningkat, proyeksi perusahaan: “Pengembangan AI yang terus-menerus akan meningkatkan kekuatan potensi penyalahgunaannya.”
Serangan yang telah dilakukan sejauh ini menghadapi tantangan bahwa biaya tinggi untuk mengembangkan model bahasa besar telah membatasi jenis output yang dapat dihasilkan oleh para penyerang untuk digunakan sebagai kode serangan.
“Upaya pelaku ancaman untuk merancang dan menggunakan model-model tersebut pada tahun 2023 seringkali berujung pada penipuan yang menghasilkan output yang relatif buruk dan, dalam banyak kasus, dengan cepat menjadi tidak berlaku,” laporan tersebut menyatakan.
Jalur penggunaan jahat selain generasi kode adalah penyebaran informasi yang salah, dan dalam hal itu, laporan CrowdStrike menyoroti banyaknya pemilihan pemerintah tahun ini yang dapat menjadi sasaran kampanye misinformasi.
Selain pemilihan presiden AS tahun ini, “Individu dari 55 negara yang mewakili lebih dari 42% dari populasi global akan berpartisipasi dalam pemilihan presiden, parlemen, dan/atau umum,” catatan penulis.
Mengintervensi dalam pemilihan dibagi menjadi jalur berbasis teknologi tinggi dan rendah. Jalur berbasis teknologi tinggi, kata penulis, adalah dengan mengganggu atau merusak sistem pemungutan suara dengan memanipulasi baik mekanisme pemungutan suara maupun penyebaran informasi tentang pemungutan suara kepada pemilih.
Pendekatan berbasis teknologi rendah adalah misinformasi, seperti “narasi yang mengganggu” yang “dapat merusak keyakinan publik.”
Operasi-informasi,” atau “IO,” seperti yang disebut CrowdStrike, sudah terjadi, “karena aktor China telah menggunakan konten yang dihasilkan oleh AI dalam kampanye pengaruh media sosial untuk menyebarkan konten yang kritis terhadap kandidat pemilihan presiden Taiwan.”
Perusahaan memprediksi, “Dengan mudahnya alat AI dapat menghasilkan narasi yang menipu namun meyakinkan, musuh akan sangat mungkin menggunakan alat-alat tersebut untuk melakukan IO terhadap pemilihan pada tahun 2024. Partai politik aktif di negara-negara tersebut yang mengadakan pemilihan juga kemungkinan besar akan menggunakan kecerdasan buatan generatif untuk membuat disinformasi yang akan disebarkan dalam lingkaran mereka sendiri.”