Berhenti Menganggap AI Seperti Manusia. Ia Bukan.

Dalam persaingan untuk membuat model AI terlihat semakin mengesankan, perusahaan teknologi telah mengadopsi pendekatan teatrikal terhadap bahasa. Mereka terus membicarakan AI seolah-olah itu seorang manusia. Bukan hanya tentang AI yang “berpikir” atau “merencanakan” — kata-kata itu sendiri sudah problematis — tetapi kini mereka bahkan mendiskusikan “jiwa” sebuah model AI dan bagaimana model tersebut “mengaku,” “menginginkan,” “berkomplot” atau “merasa tidak pasti.”

Ini bukan sekadar embel-embel pemasaran yang tak berbahaya. Antropomorfisasi AI menyesatkan, tidak bertanggung jawab, dan pada akhirnya merusak pemahaman publik terhadap teknologi yang sudah kesulitan dengan transparansi, di saat kejelasan justru paling dibutuhkan.

Riset dari perusahaan-perusahaan AI besar, yang bertujuan menerangi perilaku AI generatif, sering kali dirangkai dengan cara yang justru mengaburkan lebih daripada menerangkan. Ambil contoh, sebuah tulisan terbaru dari OpenAI yang merinci upayanya membuat modelnya “mengakui” kesalahan atau jalan pintas mereka. Itu adalah eksperimen berharga yang menyelidiki bagaimana chatbot melaporkan “pelanggaran” tertentu, seperti halusinasi dan komplotan. Namun, deskripsi OpenAI tentang proses itu sebagai sebuah “pengakuan” mengisyaratkan adanya elemen psikologis di balik keluaran model bahasa besar tersebut.

Mungkin hal itu bersumber dari pengakuan betapa sulitnya bagi sebuah LLM mencapai transparansi sejati. Kita telah melihat, misalnya, model AI tidak dapat secara andal mendemonstrasikan proses kerjanya dalam aktivitas seperti memecahkan teka-teki Sudoku.

Ada kesenjangan antara apa yang dapat dihasilkan AI dan bagaimana ia menghasilkannya, itulah mengapa terminologi mirip manusia ini begitu berbahaya. Kita seharusnya mendiskusikan batasan dan bahaya nyata teknologi ini, namun istilah-istilah yang melabeli AI sebagai makhluk yang sadar justru meminimalkan kekhawatiran atau mengabaikan risikonya.


Jangan lewatkan konten teknologi netral dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber pilihan di Google.

MEMBACA  Saya tidak bisa mengganti Kindle Paperwhite saya dengan tablet E Ink lain karena fitur ini


AI Tidak Memiliki Jiwa

Sistem AI tidak memiliki jiwa, motif, perasaan, atau moralitas. Mereka tidak “mengaku” karena terdorong oleh kejujuran, sama seperti kalkulator tidak “meminta maaf” saat kamu menekan tombol yang salah. Sistem-sistem ini menghasilkan pola teks berdasarkan hubungan statistik yang dipelajari dari kumpulan data yang sangat besar.

Itu saja.

Apa pun yang terasa manusiawi hanyalah proyeksi kehidupan batin kita pada sebuah cermin yang sangat canggih.

Menganthropomorfisasi AI memberikan gambaran yang keliru kepada orang-orang tentang hakikat sistem ini. Dan itu ada konsekuensinya. Ketika kita mulai mengaitkan kesadaran dan kecerdasan emosional pada entitas yang sama sekali tidak memilikinya, kita mulai mempercayai AI dengan cara yang tidak pernah dimaksudkan.

Kini, lebih banyak orang beralih ke “Dokter ChatGPT” untuk bimbingan medis daripada mengandalkan klinisi berlisensi dan berkualifikasi. Yang lain mencari respons buatan AI di bidang seperti keuangan, kesehatan emosional, dan hubungan interpersonal. Beberapa bahkan membentuk persahabatan semu dengan chatbot dan bergantung pada mereka untuk bimbingan, dengan asumsi bahwa apa pun yang dikeluarkan LLM “cukup baik” untuk mendasari keputusan dan tindakan mereka.

Bagaimana Seharusnya Kita Membicarakan AI

Ketika perusahaan-perusahaan condong ke bahasa antropomorfik, mereka mengaburkan batas antara simulasi dan kesadaran. Terminologi ini membesar-besarkan ekspektasi, memicu ketakutan, dan mengalihkan perhatian dari isu-isu nyata yang sebenarnya layak dapat perhatian kita: bias dalam dataset, penyalahgunaan oleh aktor jahat, keamanan, keandalan, dan konsentrasi kekuasaan. Tidak satu pun topik itu memerlukan metafora mistis.

Ambil contoh kebocoran “dokumen jiwa” Anthropic yang digunakan untuk melatih karakter, persepsi diri, dan identitas Claude Opus 4.5. Dokumen internal yang aneh ini tidak pernah dimaksudkan sebagai klaim metafisika—lebih mirip para insinyurnya sedang berimprovisasi dalam panduan debuging. Namun, bahasa yang digunakan perusahaan-perusahaan ini di balik pintu tertutup pada akhirnya merembes ke diskusi publik. Dan begitu bahasa itu melekat, ia membentuk pemikiran kita tentang teknologi tersebut, serta perilaku kita di sekitarnya.

MEMBACA  Meningkatkan ke Wi-Fi 7? Router baru ini memberikan kecepatan tinggi, mudah digunakan, dan sangat aman.

Atau lihat riset OpenAI tentang “komplotan” AI, di mana segelintir respons langka yang menipu membuat beberapa peneliti menyimpulkan bahwa model dengan sengaja menyembunyikan kemampuan tertentu. Menguji hasil AI secara kritis adalah praktik baik; menyiratkan chatbot mungkin memiliki motif atau strategi sendiri adalah keliru. Laporan OpenAI sebenarnya menyatakan bahwa perilaku ini adalah hasil dari data pelatihan dan tren *prompting* tertentu, bukan tanda penipuan. Tapi karena menggunakan kata “berkomplot,” percakapan pun beralih ke kekhawatiran akan AI sebagai agen yang licik.

Ada kata-kata yang lebih baik, lebih akurat, dan lebih teknis. Daripada “jiwa,” bicarakan tentang arsitektur atau pelatihan model. Daripada “pengakuan,” sebut saja pelaporan kesalahan atau pemeriksaan konsistensi internal. Daripada mengatakan model “berkomplot,” jelaskan proses optimisasinya. Kita harus merujuk AI dengan istilah seperti tren, keluaran, representasi, pengoptimal, pembaruan model, atau dinamika pelatihan. Istilah-istilah itu tidak sedramatis “jiwa” atau “pengakuan,” tetapi memiliki keunggulan karena berakar pada kenyataan.

Harus diakui, ada alasan mengapa perilaku LLM ini tampak manusiawi—perusahaan melatih mereka untuk meniru kita.

Sebagaimana diungkapkan penulis makalah 2021 “On the Dangers of Stochastic Parrots,” sistem yang dibangun untuk mereplikasi bahasa dan komunikasi manusia pada akhirnya akan mencerminkannya—kata-kata, sintaksis, nada, dan sifat kita. Kemiripan itu tidak menyiratkan pemahaman sejati. Itu berarti model sedang melakukan apa yang telah dioptimalkan untuk dilakukannya. Saat sebuah chatbot meniru dengan begitu meyakinkan seperti yang bisa dilakukan chatbot sekarang, kita akhirnya membaca kemanusiaan ke dalam mesin, meskipun tidak ada hal seperti itu di dalamnya.

Bahasa membentuk persepsi publik. Ketika kata-kata yang digunakan sembrono, magis, atau sengaja antropomorfik, publik akhirnya mendapatkan gambaran yang terdistorsi. Distorsi itu hanya menguntungkan satu kelompok: perusahaan-perusahaan AI yang mengambil untung dari LLM yang terlihat lebih mampu, berguna, dan manusiawi daripada yang sebenarnya.

MEMBACA  Jangan Gunakan Obat Pelangsing Seperti Selebriti Melakukannya, Iklan Eli Lilly Oscars Mengatakan

Jika perusahaan-perusahaan AI ingin membangun kepercayaan publik, langkah pertamanya sederhana. Berhenti memperlakukan model bahasa sebagai makhluk mistis yang berjiwa. Mereka tidak memiliki perasaan—kitalah yang memilikinya. Kata-kata kita harus mencerminkan itu, bukan mengaburkannya.

Baca juga: Di Era AI, Seperti Apa Rupa Makna?

Tinggalkan komentar