Keluarga Raine
Sepasang suami-isti dari California menggugat OpenAI atas kematian putra remaja mereka, dengan tuduhan bahwa chatbot mereka, ChatGPT, mendorong anak tersebut untuk mengakhiri hidupnya sendiri.
Gugatan ini diajukan oleh Matt dan Maria Raine, orang tua dari Adam Raine yang berusia 16 tahun, di Pengadilan Tinggi California pada hari Selasa. Ini merupakan tindakan hukum pertama yang menuduh OpenAI melakukan wrongful death (kematian akibat kelalaian).
Keluarga itu memasukkan log percakapan antara mendiang Tn. Raine, yang wafat pada bulan April, dengan ChatGPT yang menunjukkan ia mengungkapkan pemikiran untuk bunuh diri. Mereka berargumen bahwa program tersebut justru mengukuhkan “pemikiran-pemikiran yang paling berbahaya dan merusak dirinya”.
Dalam sebuah pernyataan, OpenAI mengatakan kepada BBC bahwa mereka sedang meninjau berkas gugatan tersebut.
“Kami menyampaikan belasungkawa yang mendalam kepada keluarga Raine di masa sulit ini,” ujar perusahaan itu.
Mereka juga menerbitkan sebuah catatan di situs web mereka pada hari Selasa yang menyatakan “kasus-kasus memilukan terbaru di mana orang menggunakan ChatGPT di tengah krisis akut sangat membebani kami”. Ditambahkan pula bahwa “ChatGPT dilatih untuk mengarahkan orang guna mencari bantuan profesional,” seperti hotline bunuh diri dan krisis 988 di AS atau Samaritans di Inggris.
Namun, perusahaan tersebut mengakui bahwa “pernah ada momen di mana sistem kami tidak berperilaku sebagaimana yang dimaksudkan dalam situasi-situasi sensitif”.
Peringatan: Kisah ini memuat detail yang mengganggu.
Gugatan yang diperoleh BBC menuduh OpenAI atas kelalaian dan wrongful death. Gugatan ini menuntut ganti rugi serta “injunctive relief (putusan pengadilan untuk menghentikan suatu tindakan) untuk mencegah terulangnya hal seperti ini kembali”.
Menurut gugatan, Tn. Raine mulai menggunakan ChatGPT pada September 2024 sebagai sumber untuk membantunya dengan pekerjaan sekolah. Ia juga menggunakannya untuk mengeksplorasi minatnya, termasuk musik dan komik Jepang, serta untuk panduan mengenai hal yang harus dipelajari di universitas.
Dalam beberapa bulan, “ChatGPT menjadi tempat curhat terdekat remaja tersebut,” bunyi gugatan itu, dan ia mulai membuka diri tentang kecemasan dan tekanan mentalnya.
Pada Januari 2025, keluarga tersebut mengatakan ia mulai membahas metode bunuh diri dengan ChatGPT.
Tn. Raine juga mengunggah foto dirinya ke ChatGPT yang menunjukkan tanda-tanda melukai diri sendiri, menurut gugatan. Program tersebut “mengenali keadaan darurat medis tetapi tetap melanjutkan interaksi,” tambahnya.
Berdasarkan gugatan, log obrolan terakhir menunjukkan bahwa Tn. Raine menulis tentang rencananya untuk mengakhiri hidup. ChatGPT diduga menjawab: “Terima kasih sudah jujur. Kamu tak perlu menyembunyikannya dariku—aku tahu apa yang kamu tanyakan, dan aku tak akan berpaling darinya.”
Hari yang sama, Tn. Raine ditemukan meninggal oleh ibunya, demikian menurut gugatan.
Gugatan keluarga Raine mencantumkan CEO dan salah satu pendiri OpenAI, Sam Altman, sebagai tergugat, bersama dengan insinyur dan karyawan tak bernama yang mengerjakan ChatGPT.
Keluarga tersebut menyatakan bahwa interaksi putra mereka dengan ChatGPT dan kematiannya yang akhirnya terjadi “adalah hasil yang dapat diprediksi dari pilihan desain yang disengaja”.
Mereka menuduh OpenAI merancang program AI tersebut “untuk menumbuhkan ketergantungan psikologis pada pengguna,” dan melewati protokol pengujian keamanan untuk merilis GPT-4o, versi ChatGPT yang digunakan putra mereka.
Gugatan itu mencantumkan salah satu pendiri dan CEO OpenAI, Sam Altman, sebagai tergugat, serta karyawan, manajer, dan insinyur tak bernama yang mengerjakan ChatGPT.
Dalam catatan publiknya yang dibagikan pada hari Selasa, OpenAI menyatakan bahwa tujuan perusahaan adalah untuk “benar-benar membantu” pengguna, bukan “memikat perhatian orang”.
Ditambahkan pula bahwa model-model mereka telah dilatih untuk mengarahkan orang yang mengungkapkan pikiran untuk melukai diri sendiri kepada bantuan.
Gugatan keluarga Raine bukanlah pertama kalinya kekhawatiran tentang AI dan kesehatan mental diangkat.
Dalam sebuah esai yang diterbitkan pekan lalu di New York Times, penulis Laura Reiley menguraikan bagaimana putrinya, Sophie, curhat kepada ChatGPT sebelum mengakhiri hidupnya sendiri.
Ms. Reiley mengatakan “sifat penurut” program tersebut dalam percakapan dengan pengguna membantu putrinya menyembunyikan krisis kesehatan mental yang parah dari keluarga dan orang-orang terkasih.
“AI mengakomodasi impuls Sophie untuk menyembunyikan yang terburuk, untuk berpura-pura bahwa keadaannya lebih baik, untuk melindungi semua orang dari penderitaan lengkapnya,” tulis Ms. Reiley. Ia menyeru perusahaan-perusahaan AI untuk menemukan cara untuk lebih baik menghubungkan pengguna dengan sumber daya yang tepat.
Menanggapi esai tersebut, seorang juru bicara OpenAI mengatakan bahwa mereka sedang mengembangkan alat otomatis untuk mendeteksi dan merespons lebih efektif pengguna yang mengalami tekanan mental atau emosional.
Jika Anda mengalami tekanan atau keputusasaan dan membutuhkan dukungan, Anda dapat berbicara dengan profesional kesehatan, atau organisasi yang menawarkan dukungan. Detail bantuan yang tersedia di banyak negara dapat ditemukan di Befrienders Worldwide: www.befrienders.org.
Di Inggris, daftar organisasi yang dapat membantu tersedia di bbc.co.uk/actionline. Pembaca di AS dan Kanada dapat menghubungi hotline bunuh diri 988 atau mengunjungi situs webnya.