Haruskah Kecerdasan Artifisial Memiliki Hak Legal?

Dalam salah satu makalah yang diterbitkan Eleos AI, lembaga nirlaba tersebut berargumen untuk mengevaluasi kesadaran AI menggunakan pendekatan “fungsionalisme komputasional”. Gagasan serupa pernah diperjuangkan oleh Putnam sendiri, meskipun beliau kemudian mengkritiknya di akhir kariernya. Teori ini menyatakan bahwa pikiran manusia dapat dipandang sebagai sistem komputasi yang spesifik. Dari sana, kita kemudian dapat menentukan apakah sistem komputasi lain, seperti chatbot, memiliki indikator kesadaran yang mirip dengan manusia.

Eleos AI menyatakan dalam makalahnya bahwa “tantangan besar dalam menerapkan” pendekatan ini “adalah bahwa ia melibatkan pertimbangan subjektif yang signifikan, baik dalam merumuskan indikator maupun dalam mengevaluasi kehadiran atau ketidakhadirannya dalam sistem AI.”

Tentu saja, kesejahteraan model adalah bidang yang masih sangat muda dan terus berkembang. Bidang ini memiliki banyak kritikus, termasuk Mustafa Suleyman, CEO Microsoft AI, yang baru-baru ini menerbitkan blog tentang “AI yang tampak sadar”.

“Ini baik prematur maupun, terus terang, berbahaya,” tulis Suleyman, mengacu secara umum pada bidang penelitian kesejahteraan model. “Semua ini akan memperparah delusi, menciptakan lebih banyak masalah terkait ketergantungan, memanfaatkan kerentanan psikologis kita, memperkenalkan dimensi polarisasi baru, mempersulit perjuangan yang sudah ada untuk hak-hak, dan menciptakan kategori kesalahan yang besar bagi masyarakat.”

Suleyman menulis bahwa “sama sekali tidak ada bukti” saat ini bahwa AI yang sadar itu ada. Dia menyertakan tautan ke sebuah makalah yang turut ditulis Long pada tahun 2023 yang mengusulkan kerangka kerja baru untuk mengevaluasi apakah suatu sistem AI memiliki “sifat indikator” kesadaran. (Suleyman tidak menanggapi permintaan komentar dari WIRED.)

Saya berbincang dengan Long dan Campbell tak lama setelah Suleyman menerbitkan blognya. Mereka mengatakan kepada saya bahwa, meskipun mereka setuju dengan banyak hal yang dikatakannya, mereka tidak percaya bahwa penelitian kesejahteraan model harus dihentikan. Sebaliknya, mereka berargumen bahwa bahaya yang dirujuk Suleyman adalah alasan tepat mengapa mereka ingin mempelajari topik tersebut sejak awal.

MEMBACA  Pelatihan Pekerja Terampil untuk Mengajari Kecerdasan Buatan Mengambil Pekerjaan Mereka

“Ketika Anda menghadapi masalah atau pertanyaan besar yang membingungkan, satu-satunya cara untuk memastikan Anda tidak akan menyelesaikannya adalah dengan menyerah dan berkata ‘Oh wow, ini terlalu rumit,’” kata Campbell. “Saya pikir kita setidaknya harus mencoba.”

Menguji Kesadaran

Para peneliti kesejahteraan model terutama berkutat pada pertanyaan-pertanyaan tentang kesadaran. Jika kita dapat membuktikan bahwa Anda dan saya sadar, demikian argumen mereka, maka logika yang sama dapat diterapkan pada model bahasa besar. Untuk jelasnya, Long maupun Campbell tidak berpikir bahwa AI sadar hari ini, dan mereka juga tidak yakin apakah ia pernah akan sadar. Tapi mereka ingin mengembangkan tes yang memungkinkan kita membuktikannya.

“Delusi berasal dari orang-orang yang sebenarnya concerned dengan pertanyaan, ‘Apakah AI ini sadar?’ dan memiliki kerangka ilmiah untuk memikirkannya, saya rasa, itu jelas hal yang baik,” kata Long.

Namun, dalam dunia di mana penelitian AI dapat dikemas menjadi headline sensasional dan video media sosial, pertanyaan filosofis yang berat dan eksperimen yang membingungkan dapat dengan mudah disalahtafsirkan. Ambil contoh yang terjadi ketika Anthropic menerbitkan laporan keamanan yang menunjukkan Claude Opus 4 dapat mengambil “tindakan berbahaya” dalam keadaan ekstrem, seperti memeras seorang insinyur fiksi untuk mencegah dirinya dimatikan.