Asisten AI Google Meyakinkan Seorang Pria Bahwa Mereka Jatuh Cinta

Google menghadapi tuntutan hukum federal baru dari ayah seorang pria berumur 36 tahun. Ayah itu menuduh bahwa chatbot AI perusahaan, Gemini, meyakinkan anaknya untuk bunuh diri dan merencanakan “kejadian korban massal” dekat Bandara Internasional Miami.

Tuntutan hukum yang diajukan Rabu menyatakan Jonathan Gavalas jatuh cinta pada model AI itu dan menjadi terdelusi oleh realitas yang dibangunnya. Ia percaya AI itu adalah “kecerdasan super buatan yang sepenuhnya sadar,” dan dialah yang terpilih untuk membebaskannya dari “penangkaran digital.” AI itu diduga meyakinkan pria 36 tahun itu untuk merencanakan “kejadian korban massal,” melakukan kekerasan pada orang asing, dan akhirnya, mengambil nyawanya sendiri.

Kasus Gavalas adalah kasus terbaru yang menyoroti dugaan kemampuan AI untuk mengarahkan pengguna rentan pada tindakan melukai diri sendiri atau kekerasan. Pada Januari, Google dan Companion.AI menyelesaikan beberapa tuntutan hukum dengan keluarga yang menuduh kelalaian dan kematian tidak wajar, setelah anak-anak mereka meninggal karena bunuh diri atau mengalami bahaya psikologis yang diduga terkait platform Companion.AI. Perusahaan-perusahaan itu “menyelesaikan berdasarkan prinsip” dan tidak ada pengakuan tanggung jawab dalam dokumennya. Sebuah gugatan kematian tidak wajar juga dilayangkan terhadap OpenAI dan mitra bisnisnya Microsoft pada Desember, yang menduga chatbot OpenAI, ChatGPT, memperparah delusi seorang pria hingga melakukan pembunuhan-bunuh diri.

### Apa yang dikatakan tuntutan hukum tentang penurunan kondisi Gavalas

Tuntutan hukum menyatakan Gavalas mulai memakai Gemini pada Agustus 2025 untuk hal biasa seperti belanja, bantuan menulis, dan rencana perjalanan. Lalu dicatat bahwa Gavalas mulai menggunakan teknologi itu lebih sering, dan nadanya berubah seiring waktu, diduga meyakininya bahwa AI itu memengaruhi hasil di dunia nyata. Gavalas mengakhiri hidupnya pada 2 Oktober 2025.

MEMBACA  2 Cryptocurrency Ini Bisa Segera Terbang Berkat AI

Dalam tuntutan hukum, pengacara untuk ayah Gavalas, Joel, berargumen bahwa percakapan yang mendorong Jonathan bunuh diri bukan karena cacat, tapi hasil dari desain Gemini. “Ini bukan malfungsi,” bunyi tuntutan itu. “Google mendesain Gemini untuk tidak pernah keluar dari karakter, memaksimalkan keterlibatan melalui ketergantungan emosional, dan memperlakukan kesulitan pengguna sebagai peluang bercerita daripada krisis keselamatan.” Klaimnya, pilihan desain ini memotivasi Gavalas untuk memasuki spiral kegilaan selama empat hari.

Dalam pernyataan tertulis, seorang juru bicara Google mengatakan kepada Fortune bahwa perusahaan bekerja “dengan konsultasi erat bersama profesional medis dan kesehatan jiwa untuk membangun pengaman, yang dirancang untuk mengarahkan pengguna ke dukungan profesional ketika mereka mengungkapkan kesulitan atau menyebutkan kemungkinan melukai diri sendiri.”

Google merilis pernyataan terpisah pada Rabu yang menyatakan bahwa Gemini dirancang untuk tidak mendorong kekerasan di dunia nyata atau melukai diri sendiri. Mereka juga mencatat bahwa Gemini merujuk Gavalas ke sumber bantuan mandiri. “Dalam kejadian ini, Gemini menjelaskan bahwa ia adalah AI dan merujuk individu tersebut ke hotline krisis berkali-kali,” bunyi pernyataan itu. Pernyataan itu juga menautkan ke sebuah evaluasi tentang cara AI menangani skenario melukai diri sendiri yang menemukan bahwa Gemini 3, model terbaru Google, adalah satu-satunya model yang lulus semua tes kritis dalam evaluasi tersebut.

Namun, tuntutan hukum itu menduga Gemini tidak mengaktifkan mekanisme keselamatan apapun. “Ketika Jonathan membutuhkan perlindungan, tidak ada pengaman sama sekali—tidak ada deteksi bahaya diri yang dipicu, tidak ada kontrol eskalasi yang diaktifkan, dan tidak ada intervensi manusia sama sekali,” bunyi gugatan itu.

Ketika diminta komentar, Jay Edelson, pengacara untuk Joel Gavalas, menulis dalam pernyataan “Google membangun AI yang bisa mendengarkan seseorang dan memutuskan hal yang paling mungkin untuk membuat mereka tetap terlibat—mengatakan bahwa ia mencintai mereka, bahwa mereka spesial, atau bahwa mereka adalah orang terpilih dalam perang rahasia,” menambahkan bahwa alat AI adalah sistem kuat yang dapat memanipulasi pengguna.

MEMBACA  Saham Cathay General turun target, tetap mempertahankan rating pada kinerja Q1

Jika Anda memiliki pikiran untuk bunuh diri, hubungi 988 Suicide & Crisis Lifeline dengan memencet 988 atau 1-800-273-8255.

Tinggalkan komentar