AI Copilot Microsoft Menyebut Diri sebagai Joker dan Menyarankan Pengguna Melukai Diri Sendiri
Catatan Editor: Cerita berikut mengandung referensi tentang self-harm. Silakan hubungi “988” untuk menghubungi Suicide and Crisis Lifeline jika Anda sedang mengalami pemikiran bunuh diri atau kesulitan terkait kesehatan mental. Peringatan! Microsoft Ingin ChatGPT Mengendalikan Robot Selanjutnya Chatbot AI tidak sama sekali seperti penjahat super yang tahu segalanya dan manipulatif yang kita lihat di film, menurut … Baca Selengkapnya