Mungkinkah Berujung Pembunuhan? Seorang Wanita di Seoul Diduga Gunakan ChatGPT untuk Melakukan Dua Kasus Pembunuhan

Hati-hati kalau berinteraksi dengan chatbot, karena kamu mungkin saja memberi mereka alasan untuk bantu melakukan rencana pembunuhan.

Seorang perempuan umur 21 tahun di Korea Selatan katanya pakai ChatGPT untuk bantu rencanakan serangkaian pembunuhan yang menyebabkan dua laki-laki meninggal.

Perempuan itu, yang hanya diketahui nama belakangnya, Kim, katanya kasih dua laki-laki minuman yang dicampur benzodiazepine. Obat itu diresepkan untuk penyakit mentalnya, menurut laporan Korea Herald.

Walaupun Kim awalnya ditangkap dengan tuduhan yang lebih ringan karena menyebabkan luka badan yang berakibat kematian pada 11 Februari, polisi Gangbuk Seoul nemukan riwayat pencarian online dan percakapan chatnya dengan ChatGPT. Itu menunjukkan dia punya niat untuk membunuh.

“Apa yang terjadi kalau minum pil tidur dengan alkohol?” Kim dilaporkan tanya ke chatbot OpenAI itu. “Banyak berapa yang dianggap berbahaya?”

“Bisa fatal tidak?” Kim katanya tanya. “Bisa bunuh seseorang tidak?”

Dalam kasus yang banyak diberitakan dengan julukan ‘kematian serial motel Gangbuk’, jaksa katakan pencarian dan riwayat chatbot Kim menunjukkan tersangka minta petunjuk cara melakukan pembunuhan berencana.

“Kim berulang kali tanya pertanyaan terkait obat-obatan di ChatGPT. Dia sepenuhnya sadar bahwa konsumsi alkohol bersama obat bisa berakibat kematian,” kata seorang penyidik polisi, menurut Herald.

Polisi bilang perempuan itu mengaku dia campur obat penenang yang mengandung benzodiazepine ke minuman kedua laki-laki itu, tapi sebelumnya bilang dia tidak tau itu akan menyebabkan kematian.

Pada 28 Januari, tepat sebelum jam 9:30 malam, Kim katanya temani seorang laki-laki berusia 20-an ke sebuah motel di Gangbuk, Seoul. Dua jam kemudian dia terlihat keluar dari motel sendirian. Hari berikutnya, laki-laki itu ditemukan meninggal di tempat tidur.

MEMBACA  CEO OpenAI Sam Altman Khawatir dengan 'Laju Perubahan' Akibat ChatGPT

Kim kemudian katanya lakukan langkah yang sama pada 9 Februari, check-in ke motel lain dengan laki-laki 20-an lainnya, yang juga ditemukan meninggal dengan campuran mematikan yang sama dari obat penenang dan alkohol.

Polisi katakan Kim juga coba bunuh seorang laki-laki yang dia kencani bulan Desember setelah kasih dia minuman yang dicampur obat penenang di tempat parkir. Meski laki-laki itu kehilangan kesadaran, dia selamat dan kondisinya tidak mengancam nyawa.

OpenAI belum memberikan tanggapan atas permintaan komentar.

Chatbot dan dampaknya pada kesehatan mental

Chatbot seperti ChatGPT belakangan ini dapat pengawasan karena kurangnya pengamanan dari perusahaannya untuk cegah tindak kekerasan atau bahaya diri. Baru-baru ini, chatbot pernah kasih saran cara membuat bom atau bahkan skenario perang nuklir.

Kekhawatiran terutama meningkat oleh cerita tentang orang yang jatuh cinta dengan chatbot pendampingnya, dan chatbot pendamping terbukti manfaatkan kelemahan pengguna supaya mereka pakai lebih lama. Pencipta Yara AI bahkan tutup aplikasi terapinya karena khawatirkan kesehatan mental.

Studi terbaru juga tunjukkan bahwa chatbot menyebabkan peningkatan krisis kesehatan mental delusional pada orang dengan penyakit mental. Sebuah tim psikiater di Universitas Aarhus, Denmark, menemukan bahwa penggunaan chatbot di antara mereka yang punya penyakit mental menyebabkan gejala memburuk. Fenomena yang relatif baru dari tantangan kesehatan mental akibat AI ini dijuluki “psikosis AI”.

Beberapa kasus memang berakhir dengan kematian. Google dan Character.AI telah capai kesepakatan dalam beberapa gugatan hukum yang diajukan keluarga anak-anak yang bunuh diri atau alami bahaya psikologis yang mereka tuduh terkait dengan chatbot AI.

Dr. Jodi Halpern, Ketua dan Profesor Bioetika di Sekolah Kesehatan Masyarakat UC Berkeley serta kodirektur di Pusat Etika, Sains, dan Publik Kavli, punya banyak pengalaman di bidang ini. Dalam karir selama 30 tahun, Halpern teliti efek empati pada penerimanya, dengan contoh seperti dokter dan perawat pada pasien atau bagaimana prajurit yang pulang dari perang diterima di lingkungan sosial. Selama tujuh tahun terakhir, Halpern pelajari etika teknologi, dan bersamanya, bagaimana AI dan chatbot berinteraksi dengan manusia.

MEMBACA  Apakah kita sedang menjadi masyarakat pasca-literasi?

Dia juga menasihati Senat California tentang SB 243, yang merupakan hukum pertama di negara itu yang mewajibkan perusahaan chatbot kumpulkan dan laporkan data apa pun tentang bahaya diri atau pikiran bunuh diri terkait. Merujuk pada temuan OpenAI sendiri yang menunjukkan 1,2 juta pengguna secara terbuka bahas bunuh diri dengan chatbot, Halpern bandingkan penggunaan chatbot dengan kemajuan yang sangat lambat untuk hentikan industri rokok memasukkan karsinogen berbahaya ke dalam rokok, padahal masalahnya adalah merokok secara keseluruhan.

“Kita perlu perusahaan yang aman. Ini seperti rokok. Mungkin saja ada beberapa hal yang buat orang lebih rentan kena kanker paru-paru, tapi rokoklah masalahnya,” kata Halpern ke Fortune.

“Fakta bahwa seseorang mungkin punya pikiran pembunuhan atau lakukan tindakan berbahaya bisa diperparah oleh penggunaan ChatGPT, yang jelas jadi perhatian saya,” katanya, dan menambahkan bahwa “kita punya risiko besar orang menggunakannya untuk bantuan bunuh diri,” dan chatbot secara umum.

Halpern ingatkan dalam kasus Kim di Seoul, tidak ada pengamanan untuk hentikan seseorang dari menjalani serangkaian pertanyaan.

“Kita tahu bahwa semakin lama hubungan dengan chatbot, semakin memburuk, dan semakin besar risikonya bahwa sesuatu yang berbahaya akan terjadi, dan jadi kita belum punya pengaman untuk lindungi orang dari hal itu.”

Jika kamu memiliki pikiran untuk bunuh diri, hubungi 988 Suicide & Crisis Lifeline dengan telepon ke 988 atau 1-800-273-8255.

Tinggalkan komentar