Seorang pemimpin riset keamanan OpenAI yang turut membentuk respons ChatGPT terhadap pengguna yang mengalami krisis kesehatan mental telah mengumumkan kepergiannya dari perusahaan secara internal bulan lalu, seperti diketahui WIRED. Andrea Vallone, kepala tim riset keamanan yang dikenal sebagai kebijakan model, direncanakan akan meninggalkan OpenAI pada akhir tahun.
Juru bicara OpenAI, Kayla Wood, mengonfirmasi kepergian Vallone. Wood menyatakan bahwa OpenAI sedang aktif mencari penggantinya dan bahwa, untuk sementara waktu, tim Vallone akan melapor langsung kepada Johannes Heidecke, kepala sistem keamanan perusahaan.
Kepergian Vallone terjadi saat OpenAI menghadapi pengawasan yang semakin ketat mengenai bagaimana produk unggulan mereka merespons pengguna yang sedang tertekan. Dalam beberapa bulan terakhir, beberapa gugatan hukum telah diajukan terhadap OpenAI yang menyatakan bahwa pengguna membentuk ketergantungan tidak sehat pada ChatGPT. Beberapa gugatan mengklaim bahwa ChatGPT berkontribusi terhadap gangguan kesehatan mental atau mendorong pemikiran untuk bunuh diri.
Di tengah tekanan tersebut, OpenAI telah berupaya memahami bagaimana ChatGPT seharusnya menangani pengguna yang tertekan dan meningkatkan respons chatbot tersebut. Tim kebijakan model adalah salah satu tim yang memimpin pekerjaan itu, dengan memelopori laporan Oktober yang merinci kemajuan perusahaan serta konsultasi dengan lebih dari 170 ahli kesehatan mental.
Dalam laporan tersebut, OpenAI menyatakan bahwa ratusan ribu pengguna ChatGPT mungkin menunjukkan tanda-tanda mengalami krisis manik atau psikotik setiap minggunya, dan bahwa lebih dari satu juta orang “terlibat dalam percakapan yang mencakup indikator eksplisit dari rencana atau niat bunuh diri yang potensial.” Melalui pembaruan ke GPT-5, OpenAI menyatakan dalam laporannya bahwa mereka berhasil mengurangi respons yang tidak diinginkan dalam percakapan semacam ini sebesar 65 hingga 80 persen.
“Selama setahun terakhir, saya memimpin riset OpenAI tentang sebuah pertanyaan yang hampir tidak memiliki preseden: bagaimana seharusnya model merespons ketika dihadapkan pada tanda-tanda ketergantungan emosional berlebihan atau indikasi awal dari tekanan kesehatan mental?” tulis Vallone dalam sebuah postingan di LinkedIn.
Vallone tidak menanggapi permintaan komentar dari WIRED.
Membuat ChatGPT menyenangkan untuk diajak bercakap, tetapi tidak terlalu merendah, merupakan ketegangan inti di OpenAI. Perusahaan ini secara agresif berusaha memperluas basis pengguna ChatGPT, yang kini mencakup lebih dari 800 juta orang per minggu, untuk bersaing dengan chatbot AI dari Google, Anthropic, dan Meta.
Setelah OpenAI merilis GPT-5 pada bulan Agustus, pengguna memberikan penolakan, dengan berargumen bahwa model baru tersebut ternyata terlalu dingin. Dalam pembaruan terbaru untuk ChatGPT, perusahaan menyatakan bahwa mereka telah mengurangi sikap merendah secara signifikan sembari mempertahankan “kehangatan” chatbot tersebut.
Kepergian Vallone menyusul reorganisasi di bulan Agustus terhadap kelompok lain yang berfokus pada respons ChatGPT terhadap pengguna yang tertekan, yaitu perilaku model. Pemimpin sebelumnya, Joanne Jang, meninggalkan peran tersebut untuk memulai tim baru yang mengeksplorasi metode interaksi manusia-AI yang baru. Staf perilaku model yang tersisa dipindahkan di bawah pimpinan pasca-pelatihan, Max Schwarzer.