Cara Kerja Serangan Injeksi Prompt Tidak Langsung pada AI – dan 6 Cara Mengatasinya
Tulisan Ulang & Terjemahan ke Bahasa Indonesia C1 ATINAT_FEI/iStock/Getty Images Plus Ikuti ZDNET: Tambahkan kami sebagai sumber preferensial di Google. Poin Penting ZDNET: Prom web berbahaya dapat mempersenjatai AI tanpa masukan Anda. Injeksi prompt tidak langsung kini menjadi risiko keamanan LLM utama. Jangan anggap chatbot AI sebagai alat yang sepenuhnya aman atau serba tahu. Isi: … Baca Selengkapnya