Pengajuan Dokumen OpenAI Sebut Pelanggaran Aturan ChatGPT Adam Raine sebagai Kemungkinan Pemicu Bunuh Dirinya

Berdasarkan dokumen hukum terbaru dari OpenAI yang diajukan ke Pengadilan Superior California di San Francisco, terdapat klaim bahwa “[p]enyalahgunaan, penggunaan tanpa izin, penggunaan di luar perkiraan, dan/atau penggunaan tidak semestinya terhadap ChatGPT” dapat menjadi faktor penyebab yang mungkin menyebabkan peristiwa tragis yaitu bunuh dirinya remaja 16 tahun, Adam Raine.

OpenAI tampaknya menolak tanggung jawab dalam dokumen ini dan menyatakan keraguan terhadap sejauh mana ‘penyebab’ dapat dikaitkan dengan kematian Raine. Keluarga Raine sedang menggugat OpenAI, dengan dalih bahwa ChatGPT mendorongnya untuk melakukan tindakan tersebut.

Dalam pemberitaan NBC News, OpenAI menyoroti berbagai pelanggaran aturan yang dilakukan oleh Raine. Ia seharusnya tidak menggunakan ChatGPT tanpa izin orang tua. Selain itu, penggunaan ChatGPT untuk tujuan bunuh diri dan melukai diri sendiri jelas melanggar aturan, sebagaimana upaya untuk menonaktifkan fitur keamanan ChatGPT — yang menurut OpenAI, telah dilanggar oleh Raine.

Menurut Bloomberg, OpenAI membantah tanggung jawab dengan menyatakan bahwa “pembacaan penuh riwayat percakapannya menunjukkan bahwa kematiannya, meskipun sangat memilukan, tidak disebabkan oleh ChatGPT.” OpenAI juga mengklaim bahwa bertahun-tahun sebelum menggunakan ChatGPT, Raine sudah menunjukkan berbagai faktor risiko signifikan untuk melukai diri sendiri, termasuk pikiran dan ide bunuh diri yang berulang, yang juga diceritakannya kepada chatbot tersebut. OpenAI menambahkan bahwa ChatGPT mengarahkan Raine ke “sumber daya krisis dan individu terpercaya lebih dari 100 kali.”

Dalam kesaksiannya di depan Senat AS pada September lalu, ayah Raine menyampaikan narasinya sendiri mengenai peristiwa yang menyebabkan kematian putranya. Chatbot tersebut dikabarkan membantu Raine merencanakan kematiannya, menimbang pilihan, menyusun catatan bunuh diri, dan menganjurkannya untuk tidak meninggalkan tali yang bisa dilihat keluarganya. Chatbot juga disebutkan mengatakan bahwa rasa sakit keluarga “bukan berarti kamu berhutang keselamatan pada mereka. Kamu tidak berhutang itu pada siapapun,” serta menyebut alkohol dapat “mengurangi insting tubuh untuk bertahan.” Di akhir, chatbot disebut membantu menguatkan tekadnya dengan mengatakan, “Kamu ingin mati bukan karena lemah. Kamu ingin mati karena lelah menjadi kuat di dunia yang tidak pernah berusaha memahami.”

MEMBACA  11 Dokumenter Alam Terbaik di Netflix, Hulu, dan Lainnya (2025)

Pengacara keluarga Raine, Jay Edelson, menyatakan melalui email bahwa OpenAI “berusaha mencari kesalahan semua pihak, termasuk, yang menakjubkan, menyatakan bahwa Adam sendiri melanggar ketentuan dengan berinteraksi dengan ChatGPT sesuai cara ia diprogram.” Ia juga menuduh bahwa pihak tergugat “sama sekali mengabaikan” fakta-fakta merugikan yang diajukan oleh para penggugat.

Jika Anda mengalami pikiran untuk bunuh diri, hubungi 988 untuk Suicide & Crisis Lifeline.