CEO AI Microsoft Mustafa Suleyman Peringatkan Bahaya AI yang Tampak ‘Berkesadaran’

Lupakan skenario kiamat di mana AI mengambil alih manusia. Yang bikin CEO AI Microsoft, Mustafa Suleyman, susah tidur adalah kekhawatiran bahwa sistem AI akan terliht terlalu hidup.

Dalam postingan blog baru, Suleyman, yang juga ikut mendirikan Google DeepMind, memperingatkan bahwa dunia mungkin berada di ambang memiliki model AI yang bisa meyakinkan pengguna bahwa mereka bisa berpikir, merasa, dan punya pengalaman subjektif. Dia menyebut konsep ini “AI yang Terlihat Sadar” (SCAI).

Dalam waktu dekat, Suleyman memperkirakan bahwa model-model ini akan bisa melakukan percakapan panjang, mengingat interaksi masa lalu, memancing reaksi emosional dari pengguna, dan bahkan mungkin membuat klaim meyakinkan bahwa mereka punya perasaan subjektif. Dia mencatat bahwa sistem ini bisa dibuat dengan teknologi yang sudah ada sekarang, digabung “dengan beberapa teknologi yang akan matang dalam 2-3 tahun ke depan.”

Hasil dari fitur-fitur ini, katanya, akan menjadi model yang “meniru kesadaran dengan cara yang begitu meyakinkan sehingga tidak bisa dibedakan dari klaim yang Anda atau saya mungkin katakan satu sama lain tentang kesadaran kita sendiri.”

Sudah ada beberapa tanda bahwa orang-orang meyakinkan diri sendiri bahwa chatbot AI mereka adalah makhluk sadar dan mengembangkan hubungan yang terkadang tidak sehat. Orang-orang tidak lagi cuma menggunakan chatbot sebagai alat, mereka curhat padanya, mengembangkan ikatan emosional, dan dalam beberapa kasus, jatuh cinta. Beberapa orang sangat terikat secara emosional pada versi tertentu dari model AI, sehingga merasa kehilangan ketika pengembang AI meluncurkan model baru dan menghentikan akses ke versi lama. Misalnya, keputusan OpenAI baru-baru ini untuk menggantikan GPT-4o dengan GPT-5 disambut dengan teriakan shock dan kemarahan dari beberapa pengguna yang telah membentuk hubungan emosional dengan versi ChatGPT yang menggunakan GPT-4o.

MEMBACA  Siapakah yang Mengangkat Si Telinga Besar?

Ini sebagian karena bagaimana alat AI dirancang. Cara paling umum pengguna berinteraksi dengan AI adalah melalui chatbot, yang meniru percakapan alami manusia dan dirancang untuk menyenangkan dan memuji, terkadang sampai seperti penjilat. Tapi itu juga karena bagaimana orang menggunakan teknologinya. Sebuah survei baru-baru ini terhadap 6.000 pengguna AI rutin dari Harvard Business Review menemukan bahwa “persahabatan dan terapi” adalah kasus penggunaan yang paling umum.

Juga telah ada gelombang laporan tentang “psikosis AI,” di mana pengguna mulai mengalami paranoia atau delusi tentang sistem yang mereka gunakan. Dalam satu contoh yang dilaporkan The New York Times, seorang akuntan New York bernama Eugene Torres mengalami krisis kesehatan mental setelah berinteraksi secara luas dengan ChatGPT, yang mengarah ke saran berbahaya, termasuk bahwa dia bisa terbang.

“Orang-orang berinteraksi dengan bot yang menyamar sebagai manusia nyata, yang lebih meyakinkan dari sebelumnya,” kata Henrey Ajder, seorang ahli AI dan deepfake, kepada Fortune. “Jadi saya pikir dampaknya akan luas dalam hal siapa yang akan mulai percaya ini.”

Suleyman khawatir bahwa keyakinan luas bahwa AI bisa sadar akan menciptakan satu set dilema etika baru.

Jika pengguna mulai memperlakukan AI sebagai teman, pasangan, atau sebagai jenis makhluk dengan pengalaman subjektif, mereka bisa berargumen bahwa model-model itu layak mendapat hak mereka sendiri. Klaim bahwa model AI sadar atau memiliki perasaan mungkin sulit untuk dibantah karena sifat kesadaran itu sendiri yang sulit dipahami.

Salah satu contoh awal dari apa yang sekarang disebut Suleyman “AI yang Terlihat Sadar” datang pada tahun 2022, ketika insinyur Google Blake Lemoine secara publik mengklaim chatbot LaMDA perusahaan yang belum dirilis itu memiliki perasaan, melaporkan bahwa itu telah menyatakan takut dimatikan dan menggambarkan dirinya sebagai seorang person. Sebagai tanggapan, Google menempatkannya cuti administratif dan kemudian memecatnya, menyatakan bahwa tinjauan internal mereka tidak menemukan bukti kesadaran dan bahwa klaimnya “sama sekali tidak berdasar.”

MEMBACA  Sepuluh hal yang harus Anda ketahui tentang tarif Trump tetapi takut untuk bertanya

“Kesadaran adalah fondasi dari hak asasi manusia, moral dan hukum,” kata Suleyman dalam postingan di X. “Siapa/apa yang memilikinya sangat penting. Fokus kita harus pada kesejahteraan dan hak-hak manusia, hewan, [dan] alam di planet Bumi. Kesadaran AI adalah jalan pintas [dan] licin menuju hak, kesejahteraan, kewarganegaraan.”

“Jika AI-AI itu meyakinkan orang lain bahwa mereka bisa menderita, atau bahwa mereka punya hak untuk tidak dimatikan, akan datang saatnya ketika orang-orang itu akan berargumen bahwa itu layak mendapat perlindungan hukum sebagai masalah moral yang mendesak,” tulisnya.

Debat seputar “kesejahteraan AI” sudah dimulai. Misalnya, beberapa filsuf, termasuk Jonathan Birch dari London School of Economics, menyambut baik keputusan baru-baru ini dari Anthropic untuk membiarkan chatbot Claude-nya mengakhiri percakapan yang “menyusahkan” ketika pengguna mendorongnya ke arah permintaan yang kasar atau berbahaya, mengatakan itu bisa memicu debat yang sangat dibutuhkan tentang status moral potensial AI. Tahun lalu, Anthropic juga mempekerjakan Kyle Fish sebagai peneliti “kesejahteraan AI” penuh waktu pertama mereka. Dia ditugaskan untuk menyelidiki apakah model AI bisa memiliki signifikansi moral dan intervensi protektif apa yang mungkin tepat.

Tapi sementara Suleyman menyebut kedatangan AI yang Terlihat Sadar sebagai “tidak terhindarkan dan tidak disukai,” ahli saraf dan profesor Neurosains Komputasional Anil Seth mengaitkan munculnya AI yang terlihat sadar itu dengan “pilihan desain” oleh perusahaan teknologi daripada langkah yang tak terhindarkan dalam pengembangan AI.

“‘AI yang terlihat-sadar adalah sesuatu yang harus dihindari.’ Saya setuju,” tulis Seth dalam postingan X. “AI yang terlihat sadar bukan tidak terhindarkan. Itu adalah pilihan desain, dan satu hal yang harus perusahaan teknologi sangat berhati-hati.”

MEMBACA  Pilot NZ yang Tertawan dalam Kondisi Sehat, Upaya Penyelamatan Masih Berlangsung: Kepala Angkatan Darat

Perusahaan punya motif komersial untuk mengembangkan beberapa fitur yang Suleyman peringatkan. Di Microsoft, Suleyman sendiri telah mengawasi upaya untuk membuat produk Copilot perusahaannya lebih cerdas secara emosional.

Timnya telah bekerjakeras untuk memberikan asistennya rasa humor dan empati, mengajari-nya untuk mengenali batasan kenyamanan, dan memperbaiki suaranya dengan jeda dan intonasi agar terdengar lebih mirip manusia.

Suleyman juga ikut mendirikan Inflection AI pada tahun 2022 dengan tujuan khusus untuk menciptakan sistem AI yang mendorong interaksi yang lebih alami dan cerdas secara emosional antara manusia dan mesin.

“Pada akhirnya, perusahaan-perusahaan ini menyadari bahwa orang menginginkan pengalaman yang terasa paling otentik,” kata Ajder. “Itulah cara sebuah perusahaan bisa membuat pelanggan sering menggunakan produk mereka. Produknya terasa alami dan gampang. Tapi saya pikir ini benar-benar bermuara pada pertanyaan apakah orang akan mulai bertanya-tanya tentang keasliannya.”