Akinbostanci/E+/Getty Images
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
**Poin Penting ZDNET**
* Cara Anda berbicara dengan AI dapat membentuk cara Anda memperlakukan orang lain.
* Sikap kasar terhadap mesin dapat menormalisasi perilaku yang bersifat memerintah.
* Kesopanan terhadap AI pada dasarnya adalah tentang disiplin diri dan kesejahteraan.
Pada tahun 2018, seorang ibu di Lynn, Massachusetts bernama Lauren Johnson, yang memiliki anak bernama Alexa (saat itu berusia enam tahun), membuat sebuah situs web berjudul Alexa is a Human.
Di situsnya, ia menulis, “Bayangkan anak Anda di-bully, tetapi Anda tidak bisa menolongnya. Bayangkan jika bullying itu berlanjut dari sekolah, ke rumah, ke mobil, dan ke toko-toko, dan Anda tidak dapat menemukan tempat yang aman. Bayangkan hal itu berkembang hingga orang asing pun terus-menerus membuli anak Anda di tempat umum. Coba bayangkan. Kita tidak perlu mengalaminya.”
Alexa kecil dari Massachusetts itu tidak sendirian. Sebuah artikel Washington Post tahun 2021 oleh Alexa Juliana Ard (kini ia lebih sering dipanggil Juliana), menyoroti bagaimana orang-orang bernama Alexa mengalami penghinaan, komentar merendahkan, diperlakukan seperti pelayan, bahkan dipaksa oleh atasan mereka untuk mengganti nama agar tidak mengganggu perangkat Alexa di kantor.
Normalisasi Perintah
Bukan hanya memperlakukan Alexa (manusia) seperti robot, orang-orang juga mempelajari apa yang oleh ilmuwan disebut “normalisasi perintah”.
Juga: 10 Trik Prompt ChatGPT yang Saya Gunakan – Untuk Hasil Terbaik, Lebih Cepat
Peneliti di School of Clinical Medicine, University of Cambridge melaporkan bahwa interaksi dengan asisten suara AI seperti Alexa selama perkembangan anak usia dini memberikan izin untuk kurangnya kesopanan dan mengikis empati, di mana anak-anak terbiasa memberikan perintah.
Dengan kata lain, seperti yang digambarkan oleh investor teknologi Hunter Walk, “Amazon Echo itu ajaib. Tapi ia juga mengubah anakku menjadi brengsek.”
Pada dasarnya, fakta bahwa asisten AI ini adalah mesin membuat kita merasa boleh bersikap kasar kepada mereka. Mereka memang cukup membuat frustasi kadang-kadang sehingga kekasaran itu terasa wajar. Namun, ada implikasi lain juga.
Misalnya, sebuah laporan UNESCO yang diterbitkan sebelum pandemi menunjukkan bagaimana prevalensi identitas berbasis perempuan dalam asisten AI, “memperkuat bias gender dan mendorong pengguna untuk memperlakukan entitas feminin sebagai bawahan.”
Efek Disinhibisi Online
Tapi perilaku ini tidak terbatas pada interaksi manusia-ke-AI. Sejak 2004, psikolog John Suler menerbitkan makalah berjudul “The Online Disinhibition Effect” di jurnal CyberPsychology & Behavior.
Di dalamnya, ia meneliti mengapa orang berperilaku berbeda di dunia online dibandingkan saat berinteraksi tatap muka. Ia berpendapat bahwa faktor-faktor seperti anonimitas, tak terlihatnya lawan bicara, dan kurangnya konsekuensi sosial langsung mengurangi kendala psikologis dan memberi orang perasaan bahwa boleh saja bersikap lebih bermusuhan atau kasar.
Sekarang, mari kita melompat ke masa kini, di mana kita tidak hanya memiliki asisten perintah-dan-tanggapan seperti Siri dan Alexa, tetapi juga chatbot penuh seperti ChatGPT dan alat AI agen seperti Claude Code. Di sini, efek disinhibisi online bisa sepenuhnya bermekaran.
Ketertarikan saya dalam hal ini sebenarnya bukan tentang bagaimana kita berbicara dengan AI. Melainkan, tentang apa yang pembicaraan dengan AI latih untuk kita lakukan saat kita berkomunikasi secara keseluruhan.
Jendela Overton
Jendela Overton adalah konsep politik dan psikologis yang awalnya dijelaskan pada pertengahan 1990-an oleh Joseph P. Overton di Mackinac Center for Public Policy. Awalnya diajukan untuk menggambarkan rentang gagasan yang dianggap dapat diterima oleh publik, dan karenanya aman untuk dipromosikan oleh politisi.
Seiring waktu, Jendela Overton digunakan untuk menggambarkan bagaimana ruang lingkup hal-hal yang nyaman bagi kita, baik terkait politik atau bukan, melebar atau menyempit. Saat jendela itu mengembang, perilaku atau konsep yang dulu mungkin membuat kita tidak nyaman menjadi hal biasa dan dapat diterima.
Juga: Ingin respons ChatGPT lebih baik? Coba trik mengejutkan ini, kata para peneliti
Kekhawatiran saya, dan pendorong artikel ini, adalah bahwa cara kita berperilaku dan berinteraksi dengan AI dapat mempengaruhi cara kita berperilaku dan berinteraksi dengan manusia lain. Bagaimanapun, pengalaman mengobrol dengan chatbot tidak terlalu berbeda dengan pengalaman mengobrol dengan rekan kerja, klien, atau atasan melalui Slack.
Saya pernah kehilangan kesabaran dengan ChatGPT tahun lalu ketika ia membawa saya ke dalam ‘lubang kelinci’ yang sangat membuat frustasi. Saya tidak bangga dengan pengalaman itu. Saya membiarkan diri menggunakan kata-kata kotor dan menunjukkan rasa jengkel kepada AI dengan cara yang saya harap tidak akan pernah saya lakukan kepada rekan kerja. Bahkan, pengalaman itulah yang memberikan inspirasi untuk praktik perilaku yang akan saya telusuri di sisa artikel ini.
Mengapa Saya Selalu Sopan kepada AI
Kekhawatiran saya adalah bahwa kombinasi dari normalisasi perintah dan efek disinhibisi online yang dipraktikkan secara rutin dengan AI dapat memperlebar Jendela Overton saya mengenai perilaku yang terlatih, dan kemudian merembes ke cara saya berperilaku dengan manusia lain.
Saya tidak ingin terbiasa hingga titik di mana bersikap kasar kepada AI saya menjadi normal atau dapat diterima. Lebih penting lagi, saya ingin mempertahankan kebiasaan saya untuk bersikap sopan, hormat, dan ramah kepada manusia yang saya ajak berinteraksi, dan cara termudah untuk mempertahankannya adalah dengan bersikap sama kepada robot.
Juga: Saya Menyelesaikan Pengembangan Produk 4 Tahun dalam 4 Hari dengan $200, dan Saya Masih Terpana
Beralih konteks antara bersikap sopan kepada rekan kerja dan bersikap memerintah kepada AI sepertinya cukup mudah. Namun, seperti kelelahan dalam mengambil keputusan, di mana terlalu banyak keputusan menguras mental dan emosional, beralih konteks antara interaksi dengan AI dan manusia juga bisa melelahkan.
Saya tidak ingin menambah beban mental (dan risiko perilaku) dengan harus mengingat bahwa sekarang saya sedang berbicara dengan klien dan perlu bersikap sopan, versus sekarang saya sedang berbicara dengan AI dan bisa meluapkan kekesalan apa pun yang terpendam.
Alasan lain saya berusaha selalu sopan kepada AI adalah karena hal itu membuat saya tetap dalam pola pikir investigasi kolaboratif, di mana saya memperlakukan AI sebagai anggota tim lainnya. Saya sangat sukses menggunakan pendekatan itu dengan OpenAI Codex untuk menciptakan empat plugin keamanan WordPress yang powerful, dan dengan Claude Code untuk membangun aplikasi iPhone yang kompleks dan unik guna mengelola inventaris dan alur kerja filamen printer 3D saya.
Selain itu, kekesalan membawa beban mental tersendiri. Itu dapat menyebabkan peningkatan kecemasan, depresi, penurunan harga diri, konsentrasi buruk, kelelahan emosional, kepuasan hidup yang rendah, bahkan gejala fisik seperti sakit kepala, kelelahan, insomnia, tekanan darah tinggi, dan sistem kekebalan tubuh yang melemah.
Tetap tenang dan melanjutkan, baik dengan orang maupun dengan AI, lebih baik bagi kesehatan mental dan fisik saya sendiri. Jika sedikit kesopanan kepada mesin tak berperasaan dapat membantu saya tetap waras dan sehat, apa salahnya?
Tapi Apakah AI Peduli?
Apakah alat AI memiliki karakteristik kinerja yang berbeda ketika diperlakukan dengan sopan? Studi belum sepakat. Sebagai faktor yang memperumit premis artikel ini, Lance Whitney dari ZDNET menulis tentang sebuah studi oleh peneliti Penn State University yang menunjukkan bagaimana beberapa AI bisa lebih akurat jika diajak bicara lebih kasar.
Di sisi lain, sebuah studi yang dipresentasikan pada Konferensi 2024 tentang Metode Empiris dalam Pemrosesan Bahasa Alami oleh peneliti di Waseda University, Tokyo, menemukan bahwa kesopanan sedang kadang-kadang dapat meningkatkan kepatuhan dan efektivitas AI. Namun, para peneliti memperingatkan bahwa kesopanan yang berlebihan dan sikap merendah justru dapat menghasilkan hasil yang lebih negatif.
Terakhir, New York Times melaporkan bahwa Sam Altman, CEO OpenAI, menyatakan ada biaya multi-juta dolar yang ditanggung perusahaan karena beberapa orang menggunakan “tolong” dan “terima kasih” dalam obrolan AI. Ini karena setiap token memiliki beban pemrosesan yang signifikan. Beban tambahan itu dapat menyebabkan penggunaan sumber daya daya dan air tambahan.
Saya berpikir, jika Anda merasa nyaman dengan penggunaan sumber daya saat meminta AI berbicara seperti bajak laut, Anda mungkin seharusnya juga baik-baik saja menggunakan sedikit lebih banyak daya dan air untuk tetap menjadi manusia.
Ini Tentang Manusia
Kesimpulan saya yang sesungguhnya sebenarnya tidak ada hubungannya dengan utilisasi sumber daya AI, atau bahkan bagaimana kinerja AI. Kesimpulan saya adalah bahwa saya ingin selalu sopan ketika berbicara dengan AI karena itu lebih baik untuk hubungan saya dengan manusia lain, kinerja kognitif pribadi saya, dan kesejahteraan saya secara keseluruhan.
Intinya: Bersikap sopan kepada AI bukanlah tentang AI. Ini tentang manusia. Seperti yang ditulis Sang Pujangga dari Avon, “Yang terpenting: jujurlah pada dirimu sendiri, dan tentu saja, seperti malam mengikuti siang, kau takkan bisa berlaku curang kepada siapa pun.”
Bagaimana dengan Anda? Apakah Anda menemukan diri Anda bersikap sopan atau blak-blakan saat berinteraksi dengan alat AI, dan apakah hal itu mengubah cara Anda berkomunikasi dengan orang lain di tempat lain? Apakah Anda khawatir kebiasaan yang terbentuk dengan chatbot atau asisten suara dapat merembes ke percakapan kerja, keluarga, atau online?
Jika Anda memiliki anak, apakah Anda pernah memikirkan tentang apa yang mungkin diajarkan oleh penggunaan asisten berbasis perintah kepada mereka? Apakah Anda melihat perbedaan dalam fokus, suasana hati, atau produktivitas Anda sendiri berdasarkan cara Anda berinteraksi dengan AI? Dan apakah gagasan bahwa kesopanan memiliki biaya sumber daya yang nyata mengubah cara berpikir Anda? Beri tahu kami di komentar di bawah.
Anda dapat mengikuti pembaruan proyek harian