Anthropic Kurangi Protokol Keamanan Sembari Tunggu Kepastian Rekrutmen Militer

Mari kita bayangkan sebuah skenario hipotetis sebentar: Katakanlah Anda adalah perusahaan AI yang menjadikan keselamatan sebagai ciri khas, dan Anda sedang bernegosiasi soal penggunaan teknologi Anda dengan militer, yang mengancam akan menghukum bisnis Anda jika tidak meninggalkan prinsip-prinsip Anda. Anda ingin mempertahankan citra sebagai perusahaan yang sadar keselamatan di dunia AI, yang telah memberi Anda banyak simpati publik saat Anda menolak tekanan pemerintah. Apakah sekarang saat yang tepat untuk mengumumkan bahwa Anda akan mengurangi beberapa protokol keselamatan dan memberi tahu Pentagon bahwa Anda setuju dengan AI yang meluncurkan misil dalam kondisi tertentu?

Rupanya, Anthropic merasa ini adalah saat yang tepat. Pada hari Selasa, perusahaan mengumumkan bahwa mereka memperbarui Kebijakan Skala Bertanggung Jawab (RSP), sebuah kerangka kerja yang pertama kali diperkenalkan pada 2023 dengan tujuan mengurangi risiko katastrofik dari sistem AI. Perusahaan ini selalu menonjolkan kebijakan tersebut sebagai pembeda dirinya dengan pesaing, sebuah janji bahwa keselamatan adalah prioritas, meski berisiko tertinggal oleh model-model frontier lain yang kurang berhati-hati.

Sebelumnya, RSP Anthropic menyatakan, “Kami tidak akan melatih atau menerapkan model yang mampu menyebabkan bahaya katastrofik kecuali kami telah menerapkan langkah-langkah keamanan yang akan menjaga risiko di bawah tingkat yang dapat diterima.” Kini, perusahaan mengklaim tidak begitu yakin hal itu sepadan jika berarti kehilangan pijakan. “Kami merasa tidak akan membantu siapapun jika kami berhenti melatih model AI,” ujar Jared Kaplan, kepala petugas sains Anthropic, kepada TIME. “Dengan kemajuan AI yang pesat, kami merasa tidak masuk akal untuk membuat komitmen sepihak … jika para pesaing terus melaju.”

Anthropic mengakui RSP originalnya telah mendorong pengembangan pengaman yang lebih kuat untuk modelnya, namun pada dasarnya menyatakan bahwa karena perusahaan lain tidak mengadopsi pembatasan serupa, mereka membutuhkan fleksibilitas lebih yang tidak dapat diberikan oleh batasan tegas. “Kebijakan Skala Bertanggung Jawab selalu direncanakan sebagai dokumen hidup: kebijakan yang memiliki fleksibilitas untuk berubah seiring meningkatnya kemampuan model AI,” tulis perusahaan dalam sebuah blog post. Anthropic mengatakan akan terus menerbitkan laporan risiko, tetapi akan beroperasi dengan tujuan keselamatan yang “tidak mengikat namun diumumkan publik” alih-alih standar internal yang ketat. Interpretasi yang murah hati melihat ini sebagai komitmen terhadap akuntabilitas publik. Interpretasi yang lebih skeptis mungkin adalah perusahaan tahu tidak ada cara bagi publik untuk benar-benar menegakkan standar ini, jadi untuk apa membatasi diri?

MEMBACA  Telkom Bermitra dengan Perusahaan Global F5, Meningkatkan Keamanan SiberTelkom has partnered with Global Company F5, Strengthening Cyber Security

Anthropic memberitahu Wall Street Journal bahwa perubahan pada RSP tersebut tidak terkait dengan negosiasi yang sedang berlangsung dengan Pentagon, yang baru kemarin memberikan ultimatum kepada perusahaan untuk melonggarkan pengaman keselamatannya agar militer dapat menggunakan model AI-nya sesuai keinginan atau menghadapi konsekuensi. Tetapi sulit untuk tidak membaca perubahan ini dalam terang kejadian tersebut.

Anthropic mempertahankan dua batasan tegas utama terkait penggunaan teknologinya untuk operasi militer: mereka tidak akan mengizinkan modelnya digunakan untuk pengawasan domestik massal atau untuk mengembangkan senjata otonom penuh yang beroperasi tanpa keterlibatan manusia. Menteri Pertahanan Pete Hegseth tampaknya tidak bersedia menerima hal itu, dan mengancam akan membatalkan kontrak pemerintah Anthropic, menyatakan Anthropic sebagai “risiko rantai pasok,” dan/atau menggunakan Undang-Undang Produksi Pertahanan untuk memaksa perusahaan membangun model untuk tujuan yang diinginkan militer.

Namun tampaknya perusahaan telah melakukan negosiasi untuk pengecualian-pengecualian yang tidak sepenuhnya melanggar batasan tersebut. Pada hari Rabu, Semafor melaporkan Pentagon menanyai Anthropic pada bulan Desember apakah mereka akan mengizinkan modelnya digunakan untuk meluncurkan misil secara otonom guna menembak misil lain. Menurut laporan, Anthropic mengatakan Pentagon harus menghubungi mereka terlebih dahulu sebelum melanjutkan penggunaan kasus seperti itu—meskipun Semafor melaporkan bahwa Anthropic saat itu dan terus bersedia membuat pengecualian untuk pertahanan misil dalam kebijakannya.

Mungkin saja, bahkan besar kemungkinannya, bahwa Anthropic memang sudah berencana untuk melonggarkan pembatasan yang mereka tetapkan pada diri sendiri. Juga mungkin perubahan itu memang sudah direncanakan terjadi minggu ini, terlepas dari konfrontasi dengan Departemen Pertahanan soal pengaman AI. Tetapi mengingat posisi Anthropic saat ini, sulit untuk tidak melihat situasi ini sebagai perusahaan yang mulai mengkompromikan prinsip-prinsipnya.

MEMBACA  Streaming Sepak Bola Liga Premier: Livestream Nottingham Forest vs. Brighton Dari Mana Saja

Gizmodo menghubungi Anthropic untuk informasi lebih lanjut, tetapi perusahaan tersebut tidak memberikan komentar sebelum publikasi.

Tinggalkan komentar