Anthropic Pembaruan ‘Konstitusi’ Claude, untuk Jaga-Jaga Jika Chatbot Memiliki Kesadaran

Claude milik Anthropic kini mendapatkan konstitusi baru. Pada hari Rabu, perusahaan mengumumkan bahwa dokumen yang memberikan “deskripsi rinci mengenai visi Anthropic terkait nilai dan perilaku Claude” sedang ditulis ulang. Perubahan ini akan menerapkan prinsip-prinsip luas yang diharapkan perusahaan untuk diikuti chatbotnya, alih-alih seperangkat aturan ketat yang menjadi acuan pada iterasi dokumen sebelumnya.

Logika Anthropic untuk perubahan ini terdengar cukup masuk akal. Meskipun aturan spesifik menciptakan perilaku chatbot yang lebih andal dan terprediksi, hal itu juga bersifat membatasi. “Kami berpikir bahwa agar dapat menjadi aktor yang baik di dunia, model AI seperti Claude perlu memahami *alasan* mengapa kami ingin mereka berperilaku dengan cara tertentu, dan kami perlu menjelaskan hal ini kepada mereka, bukan sekadar menetapkan apa yang kami inginkan,” jelas perusahaan tersebut. “Jika kita ingin model memiliki pertimbangan yang baik dalam berbagai situasi baru, mereka harus mampu menggeneralisasi—menerapkan prinsip luas daripada mengikuti aturan spesifik secara mekanis.”

Cukup adil—meskipun gambaran umum konstitusi baru ini memang terasa masih meninggalkan banyak hal yang diinginkan dalam hal spesifikasi. Empat prinsip panduan Anthropic untuk Claude mencakup memastikan model dasarnya “aman secara luas,” “etis secara luas,” “sesuai dengan pedoman Anthropic,” dan “benar-benar membantu.” Itu adalah… ya, prinsip-prinsip yang luas. Perusahaan memang menyatakan bahwa sebagian besar konstitusi didedikasikan untuk menjelaskan prinsip-prinsip ini, dan mereka memberikan beberapa detail lebih lanjut (misalnya, bersikap etis berarti “jujur, bertindak sesuai nilai-nilai baik, dan menghindari tindakan yang tidak pantas, berbahaya, atau merugikan”), tetapi bahkan penjelasan itu terasa cukup generik.

Perusahaan juga mengatakan bahwa mereka mendedikasikan satu bagian konstitusi untuk hakikat Claude karena “ketidakpastian kami mengenai apakah Claude mungkin memiliki semacam kesadaran atau status moral (baik sekarang maupun di masa depan).” Rupanya perusahaan berharap dengan mendefinisikan hal ini dalam dokumen fondasinya, mereka dapat melindungi “keamanan psikologis, rasa diri, dan kesejahteraan Claude.”

MEMBACA  Dish Mini Starlink Ubah Cara Internet saat Bepergian

Perubahan pada konstitusi Claude dan penerimaan tampak akan gagasan bahwa ia suatu hari nanti mungkin memiliki kesadaran independen ini terjadi hanya sehari setelah CEO dan pendiri Anthropic, Dario Amodei, berbicara dalam panel Forum Ekonomi Dunia bertajuk ‘The Day After AGI’ dan menyatakan bahwa AI akan mencapai tingkat keterampilan setara “peraih Nobel” di berbagai bidang pada tahun 2027.

Pengungkapan tirai mengenai cara kerja Claude (atau seharusnya bekerja) ini dilakukan atas syarat Anthropic sendiri. Terakhir kali kita bisa melihat apa yang terjadi di belakang layar, informasi itu berasal dari pengguna yang berhasil memicu chatbot untuk menghasilkan apa yang disebutnya “dokumen jiwa.” Dokumen yang terungkap pada bulan Desember itu bukanlah dokumen pelatihan resmi, kata Anthropic kepada Gizmodo, melainkan iterasi awal dari konstitusi yang secara internal dirujuk perusahaan sebagai “jiwa”-nya. Anthropic juga menyatakan bahwa rencana mereka selalu untuk mempublikasikan konstitusi lengkap ketika sudah siap.

Apakah Claude siap beroperasi tanpa ‘pembatas’ adalah pertanyaan lain sama sekali, tetapi sepertinya kita akan menemukan jawabannya, satu atau lain cara.

Tinggalkan komentar