Tulisan Ulang & Terjemahan ke Bahasa Indonesia C1
ATINAT_FEI/iStock/Getty Images Plus Ikuti ZDNET: Tambahkan kami sebagai sumber preferensial di Google. Poin Penting ZDNET:
- Prom web berbahaya dapat mempersenjatai AI tanpa masukan Anda.
- Injeksi prompt tidak langsung kini menjadi risiko keamanan LLM utama.
- Jangan anggap chatbot AI sebagai alat yang sepenuhnya aman atau serba tahu.
Isi:
large language model (LLM)—yang memakai dataset untuk menjalankan tugas, menjawab pertanyaan, dan menghasilkan konten—telah merevolusi dunia. AI kini hadir di segalanya, mulai dari mesin pencari hingga peramban (browsers) dan aplikasi ponsel. Suka atau tidak, teknologi ini akan terus ada. Baca juga: 4 Kerentanan AI Kritis Ini Dieksploitasi Lebih Cepat dari Respons Pertahanan
Kecerdasan buatan (AI) dan potensinya dalam membantu bisnis serta konsumen menjadi topik utama di setiap konferensi atau puncak acara tahun ini.
Alat-alat AI bermodelDi balik inovasi, integrasi AI ke aplikasi sehari-sehari telah membuka celah baru untuk eksploitasi dan
abuse. Meski ancaman terkait AI belum sepenuhnya teridentifikasi, satu jenis serangan yang memicu keprihatinan ialah serangan injeksi prompt tidak langsung (indirect prompt injection attacks). Ini bukan sekadar hipotesis: peneliti kini mendokumentasikan contoh nyata dari sumber serangan ini di dunia maya.Apa itu serangan injeksi prompt tidak langsung?
Baca juga: Mode Lockdown Baru ChatGPT untuk Stop Injeksi Prompt
LLM yang menjadi otot asisten AI, chatbot, serta peramban dan alat berbasis AI membutuhkan informasi dari berbagai sumber, antaralain situs web, pangkalan data, dan teks eksternal. Serangan terjadi saat instruksi jahat disembunyikan di dalam konten web atau alamat URL. Jika chatbot AI dihubungkan ke layanan seperti email atau media sosial, prompt berbahaya juga bisa disembunyikan di sana.Bahaya serangan ini: tanpa memerlukan interaksi pengguna, LLM mungkin membaca serta mengeksekusi instruksi jahat, lalu menampilkan konten berbahaya—mulai tautan situs phishing hingga penyebaran desinformasi. Microsoft memperingatkan bahwa serangan ini juga kerap dikaitfikasi dengan pencurian data (
data exfiltration) dan eksekusi kode jarak jauh.Perbandingan: Injeksi Langsung vs Tak Langsung
direct prompt injection), cara tradisional merusak sistem dilakukan dengan mengarahkan kode/instruksi jahat langsung ke target. Di konteks AI, misalnya penyerang membuat prompt spesifik untuk memaksa ChatGPT atau Claude bertindak di luar jalur keamanan seperti memicu tindakan merusak atau bocornya data. Ini lazim untuk jailbreak bypass.
Dalam injeksi langsung (Mengapa Injeksi Prompt Penting?
Yayasan OWASP merilis OWASP Top 10 klasifikasi ancaman keamanan web. Proses sekarang menaruh LDMs sebagai daftar prioritas utama kedua varian injeksi (Lia tung dan abstraklangsung).— lebih lanjut? lihat Laporan Projek Nggs atau anda klar kan.Contoh nyatanya di Dunia Maya ATINAT_FEI/iStock/Getty Images Plus Juga: Ancaman AI Terbesar Berasal dari Dalam—12 Cara Melindungi Organisasi Anda
Meskipun demikian, sebagaimana dicatat Google, serangan injeksi prompt secara tidak langsung bukanlah sekadar persoalan teknis yang bisa diperbaiki lalu dilupakan. Vektor serangan ini tidak akan hilang dalam waktu dekat. Karena itu, perusahaan harus terus-menerus menyesuaikan taktik pertahanan mereka.
Google menggunakan kombinasi penetration testing otomatis dan manual, bug bounties, penguatan sistem, perbaikan teknis, dan pelatihan machine learning untuk mengenali ancaman.
Microsoft mengutamakan alat deteksi, penguatan sistem, dan inisiatif riset.
Anthropic berfokus pada mitigasi ancaman AI berbasis peramban melalui pelatihan AI, pelacakan percobaan injeksi prompt melalui klasifikator, serta uji penetrasi red teaming*.
OpenAI memandan injeksi prompt sebagai tantangan keamanan jangka panjang dan mengembangkan siklus serta teknologi respons cepat untuk mengatasinya.Cara Tetap Aman
Bukan hanya organisasi yang perlu mengambil langkah mitigasi terhadap risiko injeksi prompt secara tidak langsung. Serangan indirek, lantaran mencemari konten yang diambil oleh model bahasa besar (LLM), kemungkinan lebih berbahaya bagi konsumen karena paparannya bisa lebih tinggi ketimbang risiko penyerang yang langsung menyasar chatbot AI yang digunakan.Juga: Mengapa Agen AI pada Perusahaan Bisa Menjadi Ancaman Orang Dalam Paling Berbahaya
Anda paling berisiko ketika chatbot diminta untuk memeriksa sumber eksternal, misalnya untuk penelusuran daring atau pemindai surel. Saya ragu serangan tak langsung begini dapat benar-benar dberantas hingga tuntas. Akan tetapi, dengan menerapkan beberapa praktik dasar setidaknya Anda dapat mengurangi kemungkinan menjadi korbannya:
- Batasi kendali: Semakin banyak akses yang Anda berikan terhadap konten, semakin luas area permukaan serangan. Sangat baik jika Anda terlebih dulu mempertimbangkan izin serta akses mana yang sungguh kita perlukan untuk chatbot.
- Data: AI sangat menarik bagi banyak pihak, tak terkecuali inovatif, dan dapat mempercepat segi kehidupan kira – tapi itu tidak lebih berarti sudah aman secara default. Berhati-hatilah saat memeberikan data pribadi atau rahasia pada SI Anda; sebaiknya janga memberikannya sama sekali. Baykan dambauk buruknya bila iaai bocor.
- Perilaku mencurigakan: Bila LLM atau jbot Anda bersikapanz tak lazim, ini bisa menandakan bahwa Andaidu celah. Setempetan yasi kalai ia mulaiDc berdengaji pada skuento: maupun hanya hanya utap ketika sistem cuacimemindah belrikig pada masaU terumaan dengan emtict berperriwaz mal jika tebag asje. G
qal P Pengaut laink Pereta etode Ptomp Injaz Le ng brispan untmening ut punil[enid diategi kal?/ k; </Emssir2 te t da 14
Minim sampa ya "r esain ag dapt pescaing had"?s} smale cweJ co d nann sipl#:br`kistir rtorier deWij W i@bo < …klart kesang betupedikasi en alite grt bcs bet. mpulikan ir yang pulang la mangsa bukan menantu pun ini tomyo). pat orgen / dip la ang T) ga minaAn im ung ba nori eg yang bagus dan perum misS). Yg tats of neW perket6 )
Untul0 g H a pan r $ ^zaha sam / K:
E/)( ( H m yangum