Para peneliti keamanan dunia maya telah memperingatkan cukup lama bahwa program kecerdasan buatan generatif (GenAI) rentan terhadap berbagai serangan, mulai dari prompt yang dirancang khusus yang dapat melanggar pagar, hingga kebocoran data yang dapat mengungkap informasi sensitif. Semakin dalam penelitian dilakukan, semakin banyak para ahli menemukan seberapa besar risiko GenAI yang terbuka lebar, terutama bagi pengguna perusahaan dengan data yang sangat sensitif dan bernilai. Juga: Keamanan AI generatif dapat dengan mudah menjadi jahat meskipun ada pagar, kata sarjana.Ini adalah vektor serangan baru yang membuka permukaan serangan baru,” kata Elia Zaitsev, kepala teknologi dari vendor keamanan siber CrowdStrike, dalam wawancara dengan ZDNET. “Saya melihat banyak orang dengan cepat menggunakan teknologi ini, dan mereka menghindari kontrol dan metode normal” dari komputasi yang aman, kata Zaitsev. “Dalam banyak hal, Anda bisa memikirkan teknologi AI generatif sebagai sistem operasi baru, atau bahasa pemrograman baru,” kata Zaitsev. “Banyak orang tidak memiliki keahlian dengan apa pro dan kontra nya, dan bagaimana menggunakannya dengan benar, bagaimana mengamankannya dengan benar.” Contoh terkenal baru-baru ini tentang AI menimbulkan kekhawatiran keamanan adalah fitur Recall Microsoft, yang awalnya akan dibangun ke semua PC Copilot+ baru. Para peneliti keamanan telah menunjukkan bahwa penyerang yang mendapatkan akses ke PC dengan fungsi Recall dapat melihat seluruh riwayat interaksi individu dengan PC, tidak berbeda dengan apa yang terjadi ketika keylogger atau perangkat lunak mata-mata lainnya diletakkan dengan sengaja di mesin tersebut. “Mereka telah merilis fitur konsumen yang pada dasarnya adalah spyware bawaan, yang menyalin semua yang Anda lakukan dalam file lokal yang tidak terenkripsi,” jelas Zaitsev. “Itu adalah tambang emas bagi lawan untuk kemudian menyerang, mengkompromikan, dan mendapatkan berbagai informasi.” Juga: Dealer mobil AS terguncang oleh serangan siber besar: 3 hal yang harus diketahui pelanggan. Setelah mendapat kritik, Microsoft mengatakan akan mematikan fitur tersebut secara default di PC, membuatnya menjadi fitur opt-in. Para peneliti keamanan mengatakan masih ada risiko terhadap fungsi tersebut. Selanjutnya, perusahaan mengatakan tidak akan membuat Recall tersedia sebagai fitur pratinjau di PC Copilot+, dan sekarang mengatakan Recall “akan segera hadir melalui pembaruan Windows setelah peluncuran.” Ancaman, bagaimanapun, lebih luas daripada aplikasi yang dirancang dengan buruk. Masalah yang sama terkait dengan mengumpulkan sejumlah informasi berharga ada pada semua teknologi model bahasa besar (LLM), kata Zaitsev. “Saya melihat banyak orang dengan cepat menggunakan teknologi ini, dan mereka menghindari kontrol dan metode normal” dari komputasi yang aman, kata Elia Zaitsev dari Crowdstrike. Crowdstrike. “Saya menyebutnya sebagai LLM telanjang,” katanya, merujuk pada model bahasa besar. “Jika saya melatih sekelompok informasi sensitif, memasukkannya ke dalam model bahasa besar, dan kemudian membuat model bahasa besar itu langsung dapat diakses oleh pengguna akhir, serangan injeksi prompt dapat digunakan di mana Anda bisa membuatnya membocorkan semua informasi pelatihan, termasuk informasi yang sensitif.” Para eksekutif teknologi perusahaan telah menyuarakan keprihatinan serupa. Dalam wawancara bulan ini dengan buletin teknologi The Technology Letter, CEO vendor penyimpanan data Pure Storage, Charlie Giancarlo, menyatakan bahwa LLM “belum siap untuk infrastruktur perusahaan.” Giancarlo menyoroti kurangnya “kontrol akses berbasis peran” pada LLM. Program-program tersebut akan memungkinkan siapa pun untuk mendapatkan prompt dari LLM dan mengetahui data sensitif yang telah diserap dalam proses pelatihan model. Juga: Penjahat siber menggunakan AI Llama 2 Meta, menurut CrowdStrike. “Saat ini, tidak ada kontrol yang baik,” kata Giancarlo. “Jika saya meminta bot AI menulis skrip penghasilan saya, masalahnya adalah saya bisa memberikan data yang hanya saya bisa miliki,” sebagai CEO, jelasnya, “tetapi begitu Anda mengajari bot itu, bot itu tidak bisa melupakannya, sehingga, orang lain – sebelum pengungkapan – bisa bertanya, ‘Berapa pendapatan Pure akan menjadi?’ dan itu akan memberi tahu mereka.” Mengungkap informasi pendapatan perusahaan sebelum jadwal pengungkapan dapat menyebabkan insider trading dan pelanggaran sekuritas lainnya. Program GenAI, kata Zaitsev, adalah “bagian dari kategori yang lebih luas yang bisa Anda sebut sebagai intrusi tanpa malware,” di mana tidak perlu menemukan dan menempatkan perangkat lunak berbahaya pada sistem komputer target. Para pakar keamanan siber menyebut kode tanpa malware semacam itu “tinggal di tanah,” kata Zaitsev, menggunakan kerentanan yang melekat dalam program perangkat lunak secara desain. “Anda tidak membawa apa pun dari luar, Anda hanya memanfaatkan apa yang dibangun ke dalam sistem operasi.” Contoh umum dari tinggal di tanah termasuk injeksi SQL, di mana bahasa query terstruktur yang digunakan untuk mengakses database SQL dapat dibentuk dengan urutan karakter tertentu untuk memaksa database melakukan langkah-langkah yang seharusnya terkunci. Demikian pula, LLM adalah database itu sendiri, karena fungsi utama dari model adalah “hanya kompresi data yang sangat efisien” yang efektif menciptakan gudang data baru. “Ini sangat analog dengan injeksi SQL,” kata Zaitsev. “Ini adalah sifat negatif mendasar dari teknologi ini.” Teknologi Gen AI bukanlah sesuatu yang harus dihapus, namun. Ini memiliki nilai jika digunakan dengan hati-hati. “Saya telah melihat langsung beberapa keberhasilan spektakuler dengan teknologi ini,” kata Zaitsev. “Dan kami sudah menggunakan teknologi ini dengan efektif dalam cara berhadapan dengan pelanggan dengan Charlotte AI,” program asisten Crowdstrike yang dapat membantu mengotomatisasi beberapa fungsi keamanan. Juga: Kesalahan keamanan cloud bisnis \’mengkhawatirkan\’ – ketika ancaman AI berakselerasiDi antara teknik untuk mengurangi risiko adalah memvalidasi prompt pengguna sebelum masuk ke LLM, dan kemudian memvalidasi respons sebelum dikirim kembali ke pengguna. “Anda tidak membiarkan pengguna melewati prompt yang belum diperiksa, langsung ke LLM,” kata Zaitsev. Sebagai contoh, LLM “telanjang” dapat mencari langsung dalam database ke mana ia memiliki akses melalui “RAG,” atau, generasi dengan penambahan pengambilan, sebuah praktik yang semakin umum dari mengambil prompt pengguna dan membandingkannya dengan konten database. Itu memperluas kemampuan LLM untuk mengungkapkan tidak hanya informasi sensitif yang telah dikompresi oleh LLM, tetapi juga seluruh repositori informasi sensitif dalam sumber eksternal itu. RAG adalah metodologi umum yang memungkinkan LLM mengakses database. BaiduKuncinya adalah tidak membiarkan LLM telanjang mengakses data langsung, kata Zaitsev. Dalam arti, Anda harus menjinakkan RAG sebelum membuat masalah semakin buruk. “Kami memanfaatkan properti LLM di mana pengguna dapat bertanya pertanyaan terbuka, dan kemudian kami menggunakan itu untuk memutuskan, apa yang mereka coba lakukan, dan kemudian kami menggunakan teknologi pemrograman yang lebih tradisional” untuk memenuhi permintaan. “Sebagai contoh, Charlotte AI, dalam banyak kasus, memungkinkan pengguna untuk bertanya pertanyaan generik, tetapi kemudian apa yang dilakukan Charlotte adalah mengidentifikasi bagian platform, data set mana yang memiliki sumber kebenaran, untuk kemudian menarik dari untuk menjawab pertanyaan” melalui panggilan API daripada membiarkan LLM mengakses database secara langsung. Juga: AI mengubah keamanan siber dan bisnis harus bangun dari ancaman”Kami sudah berinvestasi dalam membangun platform yang kokoh ini dengan API dan kemampuan pencarian, jadi kami tidak perlu terlalu bergantung pada LLM, dan sekarang kami mengurangi risiko,” kata Zaitsev. “Hal penting adalah bahwa Anda telah mengunci interaksi ini, itu tidak terbuka lebar.” Selain penyalahgunaan pada prompt, fakta bahwa GenAI dapat bocor data pelatihan adalah keprihatinan yang sangat luas di mana kontrol yang memadai harus ditemukan, kata Zaitsev. “Apakah Anda akan memasukkan nomor social security Anda ke dalam prompt yang kemudian Anda kirimkan ke pihak ketiga yang Anda tidak tahu sekarang melatih nomor social security Anda ke dalam LLM baru yang kemudian bisa bocor melalui serangan injeksi?” “Privasi, informasi pribadi yang dapat diidentifikasi, mengetahui di mana data Anda disimpan, dan bagaimana itu diamankan – itu adalah hal-hal yang harus dikhawatirkan orang ketika mereka membangun teknologi Gen AI, dan menggunakan vendor lain yang menggunakan teknologi itu.”