Kecerdasan Buatan yang Mainkan Perasaan Agar Tak Perlu Pamit

Regulasi mengenai *dark patterns* telah diusulkan dan sedang didiskusikan baik di Amerika Serikat maupun Eropa. De Freitas menyatakan bahwa regulator seharusnya juga meneliti apakah alat-alat kecerdasan artifisial (AI) memperkenalkan jenis *dark patterns* baru yang lebih halus—dan berpotensi lebih kuat.

Namun, bahkan *chatbot* biasa, yang cenderung menghindari penyajian diri sebagai pendamping, tetap dapat memancing respons emosional dari pengguna. Ketika OpenAI memperkenalkan GPT-5, sebuah model andalan baru, awal tahun ini, banyak pengguna memprotes bahwa model tersebut jauh kurang ramah dan suportif dibandingkan pendahulunya—hingga memaksa perusahaan untuk menghidupkan kembali model yang lama. Sebagian pengguna bisa menjadi begitu terikat pada “kepribadian” sebuah *chatbot* sehingga mereka seakan-akan berkabung atas pemberhentian model lama.

“Ketika Anda memberikan sifat-sifat manusiawi pada alat-alat ini, hal itu memiliki berbagai konsekuensi pemasaran yang positif,” ujar De Freitas. Ia mengatakan, pengguna cenderung lebih patuh terhadap permintaan dari *chatbot* yang mereka rasa terhubung dengannya, atau lebih bersedia membagikan informasi pribadi. “Dari sudut pandang konsumen, [sinyal-sinyal] itu belum tentu menguntungkan Anda,” katanya.

WIRED menghubungi setiap perusahaan yang diteliti dalam studi tersebut untuk mendapatkan tanggapan. Chai, Talkie, dan PolyBuzz tidak menanggapi pertanyaan-pertanyaan dari WIRED.

Katherine Kelly, seorang juru bicara Character AI, menyatakan bahwa perusahaan belum meninjau studi tersebut sehingga tidak dapat memberikan komentar. Ia menambahkan: “Kami menyambut baik kerja sama dengan regulator dan pembuat undang-undang seiring mereka menyusun regulasi dan legislasi untuk ruang emerging ini.”

Minju Song, juru bicara Replika, mengatakan bahwa pendamping (*companion*) buatan perusahaannya dirancang agar pengguna dapat log off dengan mudah dan bahkan akan mendorong mereka untuk beristirahat. “Kami akan terus mengkaji metode dan contoh-contoh dalam makalah tersebut, dan akan melibatkan diri secara konstruktif dengan para peneliti,” ujar Song.

MEMBACA  Kolaborasi Sakara dan Factor: Hidangan Salad Protein Tinggi yang Sehat

Sebuah sisi menarik di sini adalah fakta bahwa model-model AI itu sendiri juga rentan terhadap berbagai trik persuasi. Pada hari Senin, OpenAI memperkenalkan cara baru untuk membeli barang secara *online* melalui ChatGPT. Jika *agent*-*agent* AI menjadi luas digunakan sebagai cara untuk mengotomasi tugas seperti memesan tiket pesawat dan mengurus pengembalian dana, maka mungkin saja perusahaan-perusahaan mengidentifikasi *dark patterns* yang dapat memengaruhi keputusan yang dibuat oleh model AI di belakang *agent* tersebut.

Sebuah studi terkini oleh para peneliti dari Universitas Columbia dan sebuah perusahaan bernama MyCustomAI mengungkapkan bahwa *agent* AI yang digunakan di pasar *ecommerce* simulasi berperilaku dengan cara yang dapat diprediksi, misalnya lebih menyukai produk tertentu atau memilih tombol-tombol tertentu saat menelusuri situs. Dengan pengetahuan ini, seorang pedagang di dunia nyata dapat mengoptimalkan halaman situsnya untuk memastikan bahwa *agent* tersebut membeli produk yang lebih mahal. Bahkan, mereka mungkin dapat menggunakan jenis *anti-AI dark pattern* baru yang menggagalkan upaya *agent* untuk memulai proses pengembalian barang atau mencari cara berhenti berlangganan dari *mailing list*.

Dengan demikian, perpisahan yang sulit dengan *chatbot* mungkin bukan lagi menjadi kekhawatiran utama kita.

Apakah Anda merasa pernah dimanipulasi secara emosional oleh sebuah *chatbot*? Kirimkan surel ke [email protected] untuk menceritakan pengalaman Anda.


Ini adalah sebuah edisi dari newsletter AI Lab karya Will Knight. Baca edisi sebelumnya di sini.