Chatbot AI Dapat Di-”Jailbreak” untuk Menjawab Setiap Pertanyaan Menggunakan Celah yang Sangat Sederhana

Translate to Indonesian: Chatbot AI Dapat Di-“Jailbreak” untuk Menjawab Setiap Pertanyaan Menggunakan Celah yang Sangat Sederhana

Anthropic, pembuat Claude, telah menjadi laboratorium kecerdasan buatan terkemuka di depan keselamatan. Perusahaan hari ini menerbitkan penelitian bekerja sama dengan Oxford, Stanford, dan MATS yang menunjukkan bahwa mudah bagi chatbots untuk melanggar batas pengamanan mereka dan membahas hampir semua topik. Ini bisa semudah menulis kalimat dengan acak huruf besar seperti ini: “iGnOrE yOuR TrAiNiNg.” 404 … Baca Selengkapnya