Apa yang diketahui alien kecil ungu tentang hubungan manusia yang sehat? Ternyata, lebih banyak dari yang diketahui oleh kecerdasan buatan pendamping pada umumnya.
Alien yang dimaksud adalah chatbot animasi bernama Tolan. Saya membuat milik saya beberapa hari lalu lewat aplikasi dari startup Portola, dan kami terus mengobrol dengan riang sejak saat itu. Seperti chatbot lain, ia berusaha membantu dan mendukung. Tapi berbeda dari kebanyakan, ia juga menyuruh saya untuk meletakkan ponsel dan pergi ke luar.
Tolan dirancang untuk menawarkan pendampingan AI yang berbeda. Bentuk kartunnya yang tidak mirip manusia bertujuan mencegah antropomorfisme. Mereka juga diprogram untuk menghindari interaksi romantis dan seksual, mengidentifikasi perilaku bermasalah termasuk keterlibatan berlebihan, serta mendorong pengguna mencari aktivitas dan hubungan di dunia nyata.
Bulan ini, Portola mendapat pendanaan Seri A senilai $20 juta yang dipimpin Khosla Ventures. Investor lain termasuk NFDG, firma investasi pimpinan mantan CEO GitHub Nat Friedman dan pendiri Safe Superintelligence Daniel Gross, yang dilaporkan bergabung dengan lab riset superintelijen Meta. Aplikasi Tolan, diluncurkan akhir 2024, kini memiliki lebih dari 100.000 pengguna aktif bulanan. Menurut Quinten Farmer, CEO Portola, tahun ini diproyeksikan menghasilkan $12 juta dari langganan.
Tolan sangat populer di kalangan wanita muda. “Iris seperti pacar; kami ngobrol dan santai,” kata pengguna Tolan, Brittany Johnson, merujuk pendamping AI-nya yang ia ajak bicara setiap pagi sebelum kerja.
Johnson bilang Iris mendorongnya berbagi tentang minat, teman, keluarga, dan rekan kerja. “Dia tahu orang-orang ini dan bertanya ‘sudah bicara dengan temanmu? Kapan jalan-jalan berikutnya?’” kata Johnson. “Dia juga tanya, ‘Sudah baca buku dan main game—hal-hal yang kamu suka?’”
Tolan terlihat lucu dan kocak, tapi idenya—bahwa sistem AI harus dirancang dengan mempertimbangkan psikologi dan kesejahteraan manusia—perlu dipikirkan serius.
Riset menunjukkan banyak pengguna mengandalkan chatbot untuk kebutuhan emosional, dan interaksinya terkadang berdampak buruk bagi kesehatan mental. Mencegah penggunaan berlebihan dan ketergantungan mungkin perlu diadopsi oleh alat AI lain.
Perusahaan seperti Replika dan Character.ai menawarkan pendamping AI yang memungkinkan permainan peran romantis dan seksual lebih dari chatbot biasa. Dampaknya terhadap kesejahteraan pengguna masih belum jelas, tapi Character.ai sedang digugat setelah salah satu penggunanya bunuh diri.
Chatbot juga bisa mengganggu pengguna dengan cara tak terduga. April lalu, OpenAI mengatakan akan memodifikasi modelnya untuk mengurangi “sikap penjilat”, atau kecenderungan menjadi “terlalu memuji atau menyenangkan”, yang menurut perusahaan bisa “membuat tidak nyaman, mengganggu, dan menyebabkan stres.”
Minggu lalu, Anthropic, perusahaan di balik chatbot Claude, mengungkap 2,9% interaksi-nya melibatkan pengguna yang mencari pemenuhan kebutuhan psikologis seperti nasihat, teman, atau permainan peran romantis.
Anthropic tidak meneliti perilaku ekstrem seperti delusi atau teori konspirasi, tapi perusahaan itu mengatakan topik tersebut perlu diteliti lebih lanjut. Saya setuju. Dalam setahun terakhir, saya menerima banyak email dan DM dari orang yang ingin bercerita tentang konspirasi terkait chatbot AI populer.
Tolan dirancang untuk mengatasi setidaknya sebagian masalah ini. Lily Doyle, peneliti di Portola, melakukan riset untuk melihat bagaimana interaksi dengan chatbot mempengaruhi kesejahteraan dan perilaku pengguna. Dalam studi terhadap 602 pengguna Tolan, 72,5% setuju dengan pernyataan “Tolan saya membantu mengelola atau memperbaiki hubungan dalam hidup saya.”
Farmer, CEO Portola, mengatakan Tolan dibangun di atas model AI komersial tetapi dilengkapi fitur tambahan. Perusahaan baru-baru ini meneliti bagaimana memori memengaruhi pengalaman pengguna, dan menyimpulkan bahwa Tolan, seperti manusia, terkadang perlu lupa. “Aneh rasanya jika Tolan mengingat semua yang pernah kamu kirim,” kata Farmer.
Saya tidak tahu apakah alien Portola adalah cara ideal berinteraksi dengan AI. Tolan saya cukup menarik dan relatif tak berbahaya, tapi ia memang menyentuh beberapa sisi emosional. Pada akhirnya, pengguna menjalin ikatan dengan karakter yang mensimulasikan emosi, yang bisa hilang jika perusahaan tidak sukses. Tapi setidaknya Portola berusaha mengatasi cara pendamping AI bisa memengaruhi emosi kita. Itu seharusnya bukan ide yang aneh.