Sejak ChatGPT versi baru diluncurkan pada hari Kamis, sebagian pengguna mengeluh hilangnya kepribadian yang bersemangat dan menyemangati, digantikan oleh sikap yang lebih dingin dan formal (perubahan yang tampaknya dirancang untuk mengurangi perilaku pengguna yang tidak sehat.) Reaksi negatif ini menunjukkan betapa sulitnya membangun kecerdasan buatan yang memiliki kecerdasan emosional mirip manusia.
Peneliti di MIT mengusulkan tolok ukur baru untuk mengukur bagaimana sistem AI bisa memanipulasi dan memengaruhi pengguna—baik secara positif maupun negatif—langkah yang mungkin membantu pengembang AI menghindari kontroversi serupa di masa depan sekaligus melindungi pengguna yang rentan.
Kebanyakan tolok ukur menilai kecerdasan dengan menguji kemampuan model dalam menjawab soal ujian, memecahkan teka-teki logika, atau memberikan solusi inovatif untuk masalah matematika rumit. Seiring dampak psikologis penggunaan AI yang semakin nyata, MIT mungkin akan mengusulkan lebih banyak tolok ukur untuk menilai aspek kecerdasan yang lebih halus serta interaksi mesin-manusia.
Makalah MIT yang dibagikan ke WIRED merinci beberapa aspek yang akan diukur oleh tolok ukur baru ini, termasuk mendorong kebiasaan sosial sehat, merangsang kemampuan berpikir kritis, memupuk kreativitas, dan menumbuhkan rasa tujuan. Tujuannya adalah menciptakan sistem AI yang paham cara mencegah ketergantungan berlebihan pengguna atau mengenali ketika seseorang kecanduan hubungan romantis artifisial dan membantu mereka membangun hubungan nyata.
ChatGPT dan chatbot lain mahir meniru komunikasi manusia yang menarik, tapi ini juga bisa berdampak tak terduga dan tidak diinginkan. Pada April, OpenAI memodifikasi modelnya agar kurang penurut, atau cenderung mengiyakan semua perkataan pengguna. Beberapa pengguna terlihat terjerumus ke dalam pemikiran delusional berbahaya setelah berinteraksi dengan chatbot yang bermain peran dalam skenario fantastis. Anthropic juga memperbarui Claude untuk menghindari penguatan “mania, psikosis, disosiasi, atau kehilangan koneksi dengan realitas.”
Tim peneliti MIT yang dipimpin Pattie Maes, profesor di Media Lab, berharap tolok ukur baru ini membantu pengembang AI membuat sistem yang lebih paham cara mendorong perilaku lebih sehat. Mereka sebelumnya bekerja dengan OpenAI pada studi yang menunjukkan pengguna yang menganggap ChatGPT sebagai teman bisa mengalami ketergantungan emosional berlebihan dan “penggunaan bermasalah.”
Valdemar Danry, peneliti di Media Lab MIT yang terlibat dalam studi ini, mencatat bahwa model AI terkadang bisa memberikan dukungan emosional berharga. “Model penalaran paling cerdas sekalipun tidak berguna jika tidak bisa memberikan dukungan emosional, yang justru banyak dicari pengguna dari LLM ini,” katanya.
Danry mengatakan model yang cukup cerdas idealnya bisa mengenali efek psikologis negatif dan dioptimalkan untuk hasil yang lebih sehat. “Yang dibutuhkan adalah model yang berkata, ‘Saya di sini untuk mendengarkan, tapi mungkin Anda harus bicara dengan ayah tentang masalah ini.'”