OpenAI telah merilis estimasi terbaru mengenai jumlah pengguna ChatGPT yang menunjukkan tanda-tanda potensial darurat kesehatan mental, seperti mania, psikosis, atau pikiran untuk bunuh diri.
Perusahaan tersebut menyatakan bahwa sekitar 0,07% pengguna ChatGPT yang aktif dalam seminggu menunjukkan tanda-tanda semacam itu, seraya menambahkan bahwa chatbot kecerdasan buatan (AI) mereka mampu mengenali dan merespons percakapan-percakapan sensitif ini.
Meski OpenAI menegaskan bahwa kasus ini “sangat langka,” para kritikus berpendapat bahwa persentase kecil sekalipun dapat berarti ratusan ribu orang, mengingat ChatGPT baru-baru ini mencapai 800 juta pengguna aktif mingguan, menurut bos Sam Altman.
Seiring meningkatnya pengawasan, perusahaan mengaku telah membangun jejaring pakar di seluruh dunia untuk memberikan nasihat.
Para pakar tersebut mencakup lebih dari 170 psikiater, psikolog, dan dokter layanan primer yang telah berpraktek di 60 negara, menurut perusahaan.
Mereka telah merancang serangkaian respons dalam ChatGPT untuk mendorong pengguna mencari bantuan di dunia nyata, menurut OpenAI.
Namun, secuil data yang dibeberkan perusahaan ini membuat sejumlah profesional kesehatan mental mengernyit.
“Walaupun 0,07% terdengar seperti persentase yang kecil, pada tingkat populasi dengan ratusan juta pengguna, angka itu sebenarnya dapat mewakili cukup banyak orang,” ujar Dr. Jason Nagata, seorang profesor yang mempelajari penggunaan teknologi di kalangan dewasa muda di University of California, San Francisco.
“AI dapat memperluas akses ke dukungan kesehatan mental, dan dalam beberapa hal mendukung kesehatan mental, tetapi kita harus menyadari keterbatasannya,” tambah Dr. Nagata.
Perusahaan juga memperkirakan 0,15% pengguna ChatGPT terlibat dalam percakapan yang mencakup “indikator eksplisit dari rencana atau niat bunuh diri yang potensial.”
OpenAI menyebut pembaruan terbaru pada chatbotnya dirancang untuk “merespons dengan aman dan penuh empati terhadap tanda-tanda potensial delusi atau mania” serta mencatat “sinyal tidak langsung dari potensi risiko bahaya diri atau bunuh diri.”
ChatGPT juga telah dilatih untuk mengalihkan percakapan sensitif “yang berasal dari model lain ke model yang lebih aman” dengan membukanya di jendela baru.
Menanggapi pertanyaan BBC mengenai kritik atas jumlah orang yang berpotensi terdampak, OpenAI menyatakan bahwa persentase kecil pengguna ini tetap mewakili sejumlah orang yang signifikan dan menekankan bahwa mereka menangani perubahan ini dengan serius.
Perubahan ini terjadi saat OpenAI menghadapi pengawasan hukum yang semakin ketat terkait cara ChatGPT berinteraksi dengan pengguna.
Dalam salah satu gugatan hukum terkenal yang baru-baru ini diajukan terhadap OpenAI, sepasang suami istri dari California menggugat perusahaan tersebut atas kematian putra remaja mereka, dengan dalih bahwa ChatGPT mendorong anak mereka untuk mengakhiri hidupnya pada bulan April.
Gugatan hukum diajukan oleh orang tua Adam Raine yang berusia 16 tahun dan merupakan tindakan hukum pertama yang menuduh OpenAI melakukan kelalaian hingga menyebabkan kematian.
Dalam kasus terpisah, tersangka dalam peristiwa pembunuhan-bunuh diri yang terjadi pada Agustus di Greenwich, Connecticut, memposting rekaman percakapannya selama berjam-jam dengan ChatGPT, yang tampaknya telah memicu delusi pelaku yang dituduhkan.
Semakin banyak pengguna yang bergulat dengan psikosis AI karena “chatbot menciptakan ilusi realitas,” kata Professor Robin Feldman, Direktur AI Law & Innovation Institute di University of California Law. “Ini adalah ilusi yang sangat kuat.”
Dia mengatakan OpenAI patut diacungi jempol karena “membagikan statistik dan upaya untuk memperbaiki masalah” namun menambahkan: “perusahaan dapat menempatkan segala jenis peringatan di layar, tetapi seseorang yang secara mental berisiko mungkin tidak dapat mengindahkan peringatan tersebut.”