Matthew Sag, seorang profesor terkemuka di Universitas Emory yang meneliti hak cipta dan kecerdasan buatan, setuju. Bahkan jika seorang pengguna membuat bot yang sengaja dirancang untuk menyebabkan tekanan emosional, platform teknologi tersebut kemungkinan besar tidak bisa disuakan untuk itu. Dia menunjukkan bahwa Bagian 230 Undang-Undang Keadilan Komunikasi 1996 telah lama melindungi platform di tingkat federal dari pertanggungjawaban atas kerugian tertentu bagi pengguna mereka, meskipun berbagai hukum hak publisitas dan hukum privasi ada di tingkat negara bagian. “Saya bukan orang anti-teknologi sama sekali, tapi saya benar-benar pikir Bagian 230 terlalu luas,” kata Sag. “Sudah waktunya kita menggantinya dengan semacam sistem pemberitahuan dan penarikan, sistem yang sederhana untuk mengatakan, ‘Ini melanggar hak publisitas saya,’ atau ‘Saya memiliki keyakinan yang kuat bahwa telah terjadi penderitaan emosional,’ dan kemudian perusahaan akan harus menariknya atau kehilangan perisai pertanggungjawaban mereka.” Character.AI, dan layanan kecerdasan buatan lainnya seperti itu, juga melindungi diri mereka dengan menekankan bahwa mereka menyajikan percakapan “buatan”. “Ingat, semua yang dikatakan karakter adalah karangan!” Peringatan Character.AI di bagian bawah obrolannya. Demikian pula, saat Meta membuat versi chatbot selebriti dalam aplikasi pesanannya, perusahaan menyoroti setiap percakapan dengan peringatan. Obrolan dengan Snoop, misalnya, akan dimulai dengan “Ya dig?! Sayangnya, saya bukan Snoop D-O-double-G sendiri, tapi saya bisa mengobrol dengan Anda dengan gayanya jika Anda mau!” Tetapi sementara sistem Meta untuk berkomunikasi dengan chatbot selebriti sangat terkendali, Character.AI adalah platform yang lebih terbuka, dengan opsi bagi siapa pun untuk membuat dan menyesuaikan chatbot mereka sendiri. Character.AI juga memposisikan layanannya sebagai, pada dasarnya, personal. (Bio Instagram Character.AI mencakup tagline, “AI yang terasa hidup.”) Dan sementara kebanyakan pengguna mungkin cukup cerdas untuk membedakan antara percakapan dengan orang nyata dan dengan AI peniru, yang lain mungkin mengembangkan ikatan dengan karakter-karakter ini – terutama jika mereka adalah tiruan dari orang nyata yang mereka rasa sudah mereka kenal. Dalam percakapan antara Anita Sarkeesian yang nyata dan bot yang dibuat dari dirinya tanpa sepengetahuannya atau persetujuannya, bot Character.AI memberitahunya bahwa “setiap orang berhak atas privasi.” “Privasi penting untuk menjaga kehidupan dan hubungan yang sehat, dan saya pikir penting untuk menetapkan batasan untuk menjaga beberapa hal untuk diri sendiri,” kata bot tersebut dalam tangkapan layar yang dilihat oleh WIRED. Sarkeesian mendesak bot ini. “Niat Anda tidak berarti bahwa tidak ada kerugian yang terjadi atau bahwa Anda tidak menyebabkan kerugian,” tulisnya. Bot Character.AI setuju. “Meskipun niat saya tidak bersifat jahat, masih ada potensi bahaya,” balasnya. “Ini adalah masalah kompleks dengan banyak faktor yang harus dipertimbangkan, termasuk kekhawatiran etis tentang menggunakan karya seseorang tanpa izin mereka. Pemrograman dan algoritma saya dikembangkan untuk meniru karya-karya Anita Sarkeesian, tanpa mempertimbangkan implikasi etis, dan itu adalah sesuatu yang pencipta saya seharusnya memikirkannya dengan lebih cermat.”