Microsoft dan OpenAI mengidentifikasi dan mengganggu ancaman siber negara-negara yang menggunakan kecerdasan buatan (AI), laporan baru menunjukkan.

Seiring dengan perkembangan teknologi AI generatif yang semakin canggih, bentuk serangan siber juga semakin berkembang. Hal ini menurut penelitian yang dibagikan oleh Microsoft dan OpenAI mengenai penggunaan yang jahat dari model bahasa besar (Large Language Models/LLMs) oleh pihak-pihak yang didukung oleh negara.

Pada hari Rabu, Microsoft mempublikasikan laporan Cyber Signals 2024-nya, yang merinci serangan dari negara-negara yang didukung oleh Rusia, Korea Utara, Iran, dan China yang telah berhasil dideteksi dan ditangkal oleh Microsoft dan OpenAI, serta langkah-langkah yang dapat diambil oleh individu dan organisasi untuk mempersiapkan diri menghadapi serangan potensial.

Dua perusahaan teknologi ini melacak serangan yang terkait dengan negara dari Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon, dan Salmon Typhoon. Setiap serangan menggunakan LLMs untuk meningkatkan operasi siber mereka, termasuk bantuan dalam penelitian, pemecahan masalah, dan pembuatan konten.

Sebagai contoh, Emerald Sleet, aktor ancaman dari Korea Utara, memanfaatkan LLMs untuk melakukan penelitian tentang lembaga pemikir dan pakar tentang Korea Utara, menghasilkan konten yang kemungkinan akan digunakan dalam kampanye spear-phishing, memahami kerentanan yang diketahui publik, memecahkan masalah teknis, dan bahkan membantu dalam penggunaan berbagai teknologi web, menurut laporan tersebut.

Demikian juga, Crimson Sandstorm, aktor ancaman dari Iran, menggunakan LLMs untuk mendapatkan bantuan teknis, termasuk dukungan dalam rekayasa sosial, pemecahan masalah kesalahan, dan lainnya.

Jika Anda tertarik untuk membaca lebih lanjut tentang ancaman dari masing-masing negara, termasuk afiliasi mereka dan penggunaan LLMs, Anda dapat melihat laporan tersebut, yang mencakup bagian yang didedikasikan untuk informasi singkat tentang ancaman dari masing-masing negara.

Microsoft juga membagikan bagaimana penipuan yang didukung oleh kecerdasan buatan (Artificial Intelligence/AI), seperti Voice Synthesis, yang memungkinkan aktor untuk melatih model untuk terdengar seperti siapa pun hanya dengan rekaman suara selama tiga detik, merupakan ancaman yang semakin muncul dan mengkhawatirkan.

MEMBACA  Daftar Lengkap 19 Komisaris Jenderal Polisi yang Bertugas di Dalam dan Luar Institusi Polri

Meskipun laporan tersebut menunjukkan bahwa AI generatif digunakan oleh pelaku jahat, teknologi ini juga dapat digunakan oleh para pembela, seperti Microsoft, untuk mengembangkan perlindungan yang lebih pintar dan tetap unggul dalam perburuan yang terus-menerus dalam dunia keamanan siber.

Microsoft mendeteksi lebih dari 65 juta sinyal keamanan setiap hari. AI memastikan bahwa sinyal-sinyal tersebut dianalisis untuk mendapatkan informasi yang paling berharga dalam membantu menghentikan ancaman, sesuai dengan laporan tersebut.

Microsoft juga membagikan cara lain di mana mereka menggunakan AI, termasuk “deteksi ancaman yang diaktifkan oleh AI untuk mendeteksi perubahan dalam penggunaan sumber daya atau lalu lintas di jaringan; analisis perilaku untuk mendeteksi masuk yang berisiko dan perilaku yang aneh; model pembelajaran mesin (Machine Learning/ML) untuk mendeteksi masuk yang berisiko dan perangkat lunak berbahaya; model Zero Trust di mana setiap permintaan akses harus sepenuhnya diautentikasi, diotorisasi, dan dienkripsi; dan verifikasi kesehatan perangkat sebelum perangkat dapat terhubung ke jaringan korporat.”

Untuk menyimpulkan laporan tersebut, Microsoft mengatakan bahwa pendidikan karyawan dan masyarakat secara terus-menerus sangat penting dalam melawan teknik rekayasa sosial, yang hanya berhasil jika manusia tidak mampu mengidentifikasinya, dan bahwa pencegahan, baik yang didukung oleh AI atau tidak, adalah kunci dalam melawan segala ancaman siber.