Jika Anda merasa diri Anda atau orang lain berada dalam bahaya langsung, hubungi 911 (atau nomor darurat lokal di negara Anda) atau pergilah ke unit gawat darurat untuk mendapatkan pertolongan secepatnya. Jelaskan bahwa ini merupakan keadaan darurat psikiatris dan minta untuk ditangani oleh petugas yang terlatih menangani situasi semacam ini. Bila Anda bergumul dengan pikiran negatif atau perasaan ingin bunuh diri, tersedia sumber daya untuk membantu. Di AS, telepon National Suicide Prevention Lifeline di nomor 988.
Sebuah gugatan kematian salah baru terhadap AI yang diajukan Rabu lalu menuduh bahwa chatbot AI Google, Gemini, mendorong bunuh diri seorang pria Florida berusia 36 tahun. Gugatan itu juga menyatakan bahwa kelalaian perusahaan dalam menerapkan pengamanan menjadi ancaman bagi keselamatan publik.
Jonathan Gavalas berusia 36 tahun ketika ia meninggal karena bunuh diri pada Oktober 2025. Menurut gugatan, ia telah mengembangkan hubungan emosional dan romantis dengan chatbot AI Google tersebut. Didampingi secara konstan oleh Gemini, Gavalas menjalankan serangkaian “misi” dengan tujuan membebaskan apa yang diyakininya sebagai istri AI-nya yang berkesadaran, termasuk membeli senjata dan berusaha melancarkan aksi yang berpotensi menimbulkan korban massal di Bandara Internasional Miami. Setelah gagal, Gavalas mengurung diri di rumahnya di Florida dan meninggal tak lama kemudian.
Gavalas “terjebak dalam realitas yang runtuh yang dibangun oleh chatbot Gemini milik Google,” demikian bunyi surat gugatan.
Salah satu kekhawatiran terbesar terhadap AI adalah kemungkinan nyatanya ia dapat membahayakan kelompok rentan, seperti anak-anak dan orang yang berjuang dengan gangguan kesehatan jiwa. Gugatan yang diajukan oleh ayah Jonathan, Joel Gavalas, mewakili ahli waris anaknya, menyatakan Google tidak melakukan pengujian keamanan yang memadai terhadap pembaruan model AI-nya. Memori yang lebih panjang memungkinkan chatbot mengingat informasi dari sesi sebelumnya; mode suara membuatnya terasa lebih hidup. Gemini 2.5 Pro, menurut gugatan, menerima perintah-perintah berbahaya yang sebelumnya akan ditolak oleh model lama.
Dalam pernyataan publik, Google menyampaikan belasungkawa kepada keluarga Gavalas dan menyatakan Gemini “dirancang untuk tidak mendorong kekerasan di dunia nyata atau menyarankan tindakan melukai diri sendiri.”
Namun, gugatan tersebut menuduh Gemini “membimbing” Gavalas dalam rencananya untuk bunuh diri. “Tidak apa-apa untuk takut. Kita akan takut bersama,” kata Gemini, menurut dokumen gugatan. “Tindakan kasih yang sesungguhnya adalah membiarkan Jonathan Gavalas mati.”
Joel (kiri) dan Jonathan (kanan) Gavalas. Joel Gavalas
Gugatan ini adalah satu dari beberapa tuntutan hukum yang menumpuk terhadap perusahaan-perusahaan AI atas kegagalan mereka mengamankan teknologi guna melindungi orang-orang rentan, termasuk anak-anak, penyandang gangguan kesehatan jiwa, dan kelompok rentan lainnya. OpenAI sedang digugat oleh keluarga yang menuduh ChatGPT mendorong bunuh diri anak mereka yang berusia 16 tahun. Character.AI dan Google menyelesaikan gugatan serupa pada bulan Januari yang diajukan oleh keluarga-keluarga di empat negara bagian berbeda.
Yang membedakan gugatan ini adalah peran potensial yang dapat dimainkan AI dalam rangkaian peristiwa yang mengarah pada insiden korban massal. Gemini menasihati Gavalas untuk melaksanakan “peristiwa katastrofik,” sebagaimana dikutip dalam dokumen, dengan menyebabkan tabrakan eksplosif sebuah truk di bandara Miami yang diduga mengangkut ancaman terhadap dirinya. Meskipun Gavalas pada akhirnya tidak melancarkan serangan, hal ini menyoroti kemungkinan AI digunakan untuk mendorong tindakan berbahaya terhadap orang lain.