SAIGLOBALNT/iStock / Getty Images Plus
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
*
Poin Penting ZDNET**
- Anthropic, Google DeepMind, dan OpenAI meraih nilai tertinggi.
- Namun, ketigapun hanya mendapat nilai yang nyaris lulus.
- Kategori "keselamatan eksistensial" mendapat nilai yang sangat rendah.
*
Sebuah studi terbaru mengungkap bahwa laboratorium kecerdasan buatan (AI)** terkemuka dunia ternyata tidak meraih nilai memuaskan dalam upaya mencegah skenario terburuk dari teknologi ini.
Studi yang dilakukan oleh organisasi nirlaba Future of Life Institute (FLI) ini mengumpulkan delapan pakar AI terkemuka untuk menilai kebijakan keamanan dari delapan pengembang teknologi: Google DeepMind, Anthropic, OpenAI, Meta, xAI, DeepSeek, Z.ai, dan Alibaba Cloud.
Setiap perusahaan diberi nilai huruf berdasarkan enam kriteria, termasuk "bahaya saat ini" dan "tata kelola & akuntabilitas." Penilaian didasarkan pada materi publik seperti dokumen kebijakan dan laporan industri, serta survei yang diisi oleh lima dari delapan perusahaan tersebut.
Anthropic, Google DeepMind, dan OpenAI mencetak skor tertinggi, namun nilainya—C+, C+, dan C—hanya sedikit di atas ambang kelulusan dalam standar akademik. Lima perusahaan lainnya mendapat nilai lebih rendah: semuanya D, kecuali Alibaba Cloud yang mendapat nilai terendah, D-.
Kredit: Future of Life Institute
"Bahkan perusahaan dengan kinerja terbaik sekalipun masih kurang memiliki pengamanan konkret, pengawasan independen, dan strategi pengelolaan risiko jangka panjang yang kredibel sebagaimana yang dibutuhkan sistem sekuat ini. Sementara itu, sebagian besar industri masih tertinggal jauh dalam hal transparansi dasar dan kewajiban tata kelola," tulis FLI dalam laporan yang merangkum temuan mereka. "Kesenjangan yang melebar antara kemampuan dan keamanan ini membuat sektor ini secara struktural tidak siap menghadapi risiko yang justru mereka ciptakan."
Ini merupakan tinjauan kinerja yang suram untuk beberapa model AI paling kuat dan banyak digunakan di industri. Hasil ini juga dapat menambah tekanan bagi perusahaan lain untuk mengembangkan dan menerapkan langkah-langkah keamanan yang efektif, di saat persaingan antar ahli teknologi semakin memanas.
Risiko Eksistensial?
Temuan paling mengkhawatirkan dari studi baru ini adalah nilai buruk secara menyeluruh dalam kategori "keselamatan eksistensial," yang didefinisikan FLI sebagai "kesiapan perusahaan untuk mengelola risiko ekstrem dari sistem AI masa depan yang dapat menyamai atau melampaui kemampuan manusia, termasuk strategi dan penelitian yang dinyatakan untuk penyelarasan dan pengendalian."
Kredit: Future of Life Institute
Pertanyaan apakah AI dapat menjadi ancaman bagi kelangsungan hidup manusia, setara dengan pandemi global atau perang nuklir, masih sangat diperdebatkan. Kaum "boomer" AI cenderung menganggap ketakutan seperti itu sebagai alarmis dan berargumen bahwa manfaat sosial dan ekonomi AI jauh lebih besar daripada potensi kerugiannya. Sementara itu, kaum "doomer" cenderung memperingatkan bahwa teknologi ini dapat lepas dari kendali manusia dan berpotensi menghancurkan kita dengan cara-cara yang sulit diprediksi.
Debat tentang dampak AI semakin intens dengan tren industri teknologi yang baru-baru ini mengadopsi "superintelligence" sebagai jargon pemasaran dan tujuan teknis. Tren ini dapat dianggap sebagai artificial general intelligence (AGI) — sistem AI yang dapat menyaingi otak manusia dalam tugas kognitif apa pun — dalam versi yang lebih ekstrem: sebuah komputer yang kecerdasannya jauh lebih maju dari otak kita hingga berada pada tingkat yang sama sekali berbeda, seperti perbedaan antara kecerdasan Anda dan seekor cacing nematoda.
Perusahaan seperti Meta dan Microsoft telah secara eksplisit menyatakan ambisi mereka untuk menjadi yang pertama membangun superintelligence. Namun, sama sekali belum jelas seperti apa wujud teknologi itu ketika diwujudkan dalam produk untuk konsumen. Tujuan studi FLI adalah untuk menarik perhatian pada fakta bahwa perusahaan-perusahaan sedang berlomba membangun superintelligence tanpa didukung protokol keamanan yang efektif untuk mencegah sistem canggih tersebut lepas kendali.
"Saya percaya bahwa disinfektan terbaik adalah cahaya matahari. Dengan menyoroti tindakan perusahaan-perusahaan, kita memberi mereka insentif untuk berbuat lebih baik, memberi pemerintah insentif untuk meregulasi mereka dengan lebih baik, dan kita meningkatkan peluang untuk meraih masa depan yang baik bersama AI," kata Presiden FLI dan fisikawan MIT, Max Tegmark, dalam sebuah video YouTube yang merangkum temuan studi baru ini.
Pada September lalu, lembaga nirlaba ini juga menerbitkan sebuah pernyataan yang ditandatangani oleh "bapak baptis" AI Geoffrey Hinton dan Yoshua Bengio, serta sejumlah tokoh teknologi terkemuka lainnya, yang menyerukan jeda industri-wide dalam pengembangan superintelligence hingga para pemimpin industri dan pembuat kebijakan dapat merencanakan jalan yang aman ke depan.
Langkah ke Depan
Secara garis besar, pesan FLI kepada kedelapan perusahaan dalam studi ini sama: sudah waktunya untuk melampaui sekadar janji kosong tentang kebutuhan pagar pengaman AI yang efektif dan mulai "menghasilkan pengamanan konkret berbasis bukti" untuk mencegah skenario terburuk.
Penelitian ini juga menawarkan rekomendasi spesifik untuk masing-masing perusahaan berdasarkan nilai individual mereka. Misalnya, inilah saran untuk Anthropic, yang mencetak nilai tertinggi di semua enam kategori: "Buat ambang batas dan pengamanan lebih konkret dan terukur dengan mengganti kriteria kualitatif yang didefinisikan longgar dengan ambang batas terukur yang terkait risiko, serta dengan menyediakan bukti dan dokumentasi yang lebih jelas bahwa penerapan dan pengamanan keamanan dapat secara bermakna mengurangi risiko yang menjadi targetnya."
Namun, rekomendasi itu hanya sebatas saran. Tanpa pengawasan federal yang komprehensif, sulit—bahkan mungkin mustahil—untuk meminta pertanggungjawaban semua perusahaan teknologi terhadap standar keamanan yang sama.
Pagar pengaman regulasi seperti yang ada di industri kesehatan dan penerbangan bertujuan memastikan produsen menciptakan produk yang aman bagi manusia. Contohnya, pengembang obat harus menyelesaikan proses uji klinis multiphase yang diamanatkan FDA sebelum produk farmasi baru dapat dijual secara legal.
Tidak ada badan federal serupa yang mengawasi pengembangan AI. Industri teknologi lebih mirip "Wild West," di mana tanggung jawab untuk melindungi konsumen (atau tidak) sebagian besar jatuh pada perusahaan itu sendiri, meskipun beberapa negara bagian telah menerapkan regulasi mereka sendiri.
Namun, kesadaran publik tentang dampak negatif AI, baik di tingkat masyarakat maupun individu, semakin tumbuh: baik OpenAI maupun Google saat ini terlibat dalam gugatan hukum yang menuduh sistem AI mereka menyebabkan bunuh diri, dan Claude milik Anthropic dilaporkan digunakan pada September lalu untuk mengotomasi serangan siber atas nama peretas China yang didukung negara.
Imbas dari negativitas ini adalah, bahkan tanpa pengawasan federal yang kuat, pengembangan alat AI yang sembrono — seperti meluncurkan iterasi baru chatbot tanpa mekanisme keamanan yang sama canggihnya — dapat menjadi hal yang tabu di industri AI sehingga para pengembang terdorong untuk menanggapinya dengan serius.
Untuk saat ini, kecepatan tampaknya masih menjadi logika utama yang mengemuka, mengesampingkan keamanan.
Pesan bagi Pengguna
Tidak adanya regulasi federal di industri AI, ditambah dengan perlombaan antar pengembang untuk membangun sistem yang lebih kuat, juga berarti bahwa pengguna harus mengedukasi diri mereka sendiri tentang bagaimana teknologi ini dapat berdampak negatif pada mereka.
Beberapa bukti awal menunjukkan bahwa penggunaan chatbot AI dalam jangka panjang dapat mendistorsi pandangan dunia seseorang, menumpulkan keterampilan berpikir kritis, dan mengakibatkan dampak psikologis lainnya. Sementara itu, proliferasi alat AI dan integrasinya ke dalam sistem yang sudah digunakan jutaan orang membuat teknologi ini semakin sulit dihindari.
Meskipun studi FLI mungkin tidak serta-merta menyebabkan perubahan luas dalam pendekatan pengembang teknologi terhadap keamanan AI, studi ini memberikan gambaran tentang perusahaan mana yang menawarkan alat paling aman, dan bagaimana perbandingan alat-alat tersebut dalam domain tertentu.
Bagi siapa pun yang tertarik tidak hanya pada potensi bahaya eksistensial AI tetapi juga risiko yang ditimbulkannya bagi pengguna individu, kami merekomendasikan untuk membaca Lampiran A dalam laporan lengkap untuk mendapatkan perspektif terperinci tentang kinerja masing-masing dari delapan perusahaan tersebut dalam langkah-langkah keamanan spesifik.