Microsoft dan OpenAI mengatakan para peretas sedang menggunakan ChatGPT untuk meningkatkan serangan siber.

Microsoft dan OpenAI mengungkapkan bahwa para peretas telah menggunakan model bahasa besar seperti ChatGPT untuk menyempurnakan dan meningkatkan serangan siber yang sudah ada. Dalam penelitian yang baru dipublikasikan, Microsoft dan OpenAI telah mendeteksi upaya dari kelompok-kelompok yang didukung oleh Rusia, Korea Utara, Iran, dan China yang menggunakan alat seperti ChatGPT untuk riset terhadap target, memperbaiki skrip, dan membantu membangun teknik rekayasa sosial.

“Kelompok-kelompok kejahatan siber, aktor ancaman negara, dan musuh lainnya sedang mengeksplorasi dan menguji berbagai teknologi AI yang muncul, dalam upaya untuk memahami nilai potensial bagi operasi mereka dan kontrol keamanan yang mungkin perlu mereka lakukan untuk menghindarinya,” kata Microsoft dalam sebuah postingan blog hari ini.

Kelompok Strontium, yang terkait dengan intelijen militer Rusia, telah terbukti menggunakan LLMs (Large Language Models) “untuk memahami protokol komunikasi satelit, teknologi pencitraan radar, dan parameter teknis tertentu.” Kelompok peretas ini, yang juga dikenal sebagai APT28 atau Fancy Bear, telah aktif selama perang Rusia di Ukraina dan sebelumnya terlibat dalam penargetan kampanye presiden Hillary Clinton pada tahun 2016.

Kelompok ini juga menggunakan LLMs untuk membantu dalam “tugas-tugas dasar penulisan skrip, termasuk manipulasi file, pemilihan data, ekspresi reguler, dan pemrosesan multiproses, untuk secara potensial mengotomatisasi atau mengoptimalkan operasi teknis,” menurut Microsoft.

Sebuah kelompok peretas Korea Utara, yang dikenal sebagai Thallium, telah menggunakan LLMs untuk riset tentang kerentanan yang dilaporkan secara publik dan menargetkan organisasi, untuk membantu dalam tugas-tugas dasar penulisan skrip, dan untuk menyusun konten untuk kampanye phishing. Microsoft mengatakan bahwa kelompok Iran yang dikenal sebagai Curium juga telah menggunakan LLMs untuk menghasilkan email phishing dan bahkan kode untuk menghindari deteksi oleh aplikasi antivirus. Para peretas yang terafiliasi dengan negara China juga menggunakan LLMs untuk riset, penulisan skrip, penerjemahan, dan menyempurnakan alat-alat yang sudah ada.

MEMBACA  Hari Amazon Prime Australia: Penawaran terbaik untuk 2024

Telah ada kekhawatiran seputar penggunaan kecerdasan buatan dalam serangan siber, terutama ketika alat-alat AI seperti WormGPT dan FraudGPT muncul untuk membantu dalam pembuatan email berbahaya dan alat pemecah kode. Seorang pejabat senior di Badan Keamanan Nasional juga memperingatkan bulan lalu bahwa para peretas menggunakan AI untuk membuat email phishing mereka terlihat lebih meyakinkan.

Microsoft dan OpenAI belum mendeteksi adanya “serangan yang signifikan” menggunakan LLMs, namun perusahaan-perusahaan tersebut telah menutup semua akun dan aset yang terkait dengan kelompok-kelompok peretas ini. “Pada saat yang sama, kami merasa penelitian ini penting untuk dipublikasikan guna mengungkap langkah-langkah awal dan bertahap yang kami amati dilakukan oleh aktor ancaman yang sudah dikenal, dan berbagi informasi tentang bagaimana kami memblokir dan melawannya bersama komunitas pembela,” kata Microsoft.

Meskipun penggunaan kecerdasan buatan dalam serangan siber tampaknya masih terbatas saat ini, Microsoft memperingatkan tentang penggunaan di masa depan seperti pemalsuan suara. “Penipuan yang didukung oleh AI adalah keprihatinan kritis lainnya. Sintesis suara adalah contoh dari hal ini, di mana sampel suara selama tiga detik dapat melatih model untuk terdengar seperti siapa saja,” kata Microsoft. “Bahkan hal sekecil ucapan selamat datang di voicemail Anda dapat digunakan untuk mendapatkan sampel yang cukup.”

Secara alami, solusi yang ditawarkan oleh Microsoft adalah menggunakan AI untuk merespons serangan AI. “AI dapat membantu para penyerang membawa kecerdasan yang lebih canggih dalam serangan mereka, dan mereka memiliki sumber daya untuk melakukannya,” kata Homa Hayatyfar, manajer utama analitik deteksi di Microsoft. “Kami telah melihat ini dengan lebih dari 300 aktor ancaman yang dilacak oleh Microsoft, dan kami menggunakan AI untuk melindungi, mendeteksi, dan merespons.”

MEMBACA  5 Juicer Terbaik (2023): Sentrifugal, Lambat, Mengunyah

Microsoft sedang membangun Security Copilot, asisten AI baru yang dirancang untuk para profesional keamanan siber untuk mengidentifikasi pelanggaran dan memahami dengan lebih baik jumlah sinyal dan data yang dihasilkan melalui alat-alat keamanan siber setiap hari. Perusahaan perangkat lunak ini juga sedang memperbarui keamanan perangkat lunaknya menyusul serangan besar-besaran terhadap Azure cloud dan bahkan peretas Rusia yang memata-matai eksekutif Microsoft.