Anthropic Mencari Pakar Senjata dan Bahan Peledak, Ini Alasannya

Banyak orang pertama kali melihatnya di X: Sebuah lowongan kerja yang sangat tidak biasa dan mengganggu. Sebagian mengira itu hanyalah lelucon. Lainnya teringat pada Cyberdyne Systems, perusahaan teknologi dalam franchise Terminator yang tak sengaja menciptakan Skynet.

Tautan ini saat ini tidak tersedia. Mungkin sedang dimuat atau telah dihapus.

Namun di LinkedIn, tempat mereka berbicara dengan ‘bahasa’ yang berbeda, Anthropic hanya memposting lowongan untuk Manajer Kebijakan, Senjata Kimia dan Bahan Peledak Berdaya Ledak Tinggi. Deskripsi pekerjaan tersebut memberikan detail lebih lanjut.

"Peran ini menawarkan kesempatan unik untuk membentuk bagaimana sistem AI menangani informasi sensitif terkait kimia dan bahan peledak," bunyinya. "Anda akan bekerja dengan peneliti keselamatan AI terkemuka sambil mengatasi masalah kritis dalam mencegah penyalahgunaan yang berpotensi katastrofik. Jika Anda bersemangat menggunakan keahlian Anda untuk memastikan sistem AI tetap aman dan bermanfaat, kami ingin mendengar dari Anda."

Mashable menghubungi Anthropic, dan perusahaan tersebut memberikan konteks lebih lanjut.

"Kebijakan penggunaan kami melarang pemanfaatan produk atau layanan Anthropic untuk mengembangkan atau merancang senjata," jelas seorang juru bicara perusahaan kepada kami. "Peran ini adalah untuk tim Safeguards yang bertanggung jawab mencegah penyalahgunaan model kami."

Juru bicara itu menekankan bahwa Anthropic secara eksplisit melarang AI-nya atau teknologi apapun dari perusahaannya untuk digunakan dalam pembuatan senjata. Sebaliknya, manajer yang berbasis di New York nantinya akan bertugas membangun dan menegakkan pengaman untuk memastikan senjata tidak dibuat dari teknologi Anthropic.

Perusahaan berusaha merekrut pakar di bidang-bidang sensitif yang dapat memastikan AI Anthropic tidak jatuh ke tangan yang salah, ujar juru bicara itu.

LIHAT JUGA:
Claude dari Anthropic Geser ChatGPT di App Store

MEMBACA  Seniman AI Mengubah Adegan Final Serial 'Squid Game'

Baru-baru ini, Anthropic terlibat dalam pertarungan publik dengan Departemen Perang (alias Departemen Pertahanan). Perusahaan menyatakan tidak akan mengalah pada tuntutannya bahwa AI-nya tidak digunakan untuk membangun senjata otonom penuh atau membangun pengawasan massal terhadap masyarakat.

Menteri Pertahanan Pete Hegseth menanggapi syarat-syarat Anthropic dengan menyatakan perusahaan tersebut sebagai risiko rantai pasok bagi keamanan nasional Amerika, melarang Pentagon menggunakan teknologinya setelah masa transisi enam bulan. Perusahaan kemudian mengajukan gugatan menurut catatan tanggal 5 Maret dari CEO Anthropic, Dario Amodei.

Sementara itu, dilaporkan sebagian pihak di Pentagon merasa sulit untuk meninggalkan Claude, model AI Anthropic.

Pada Februari lalu, Anthropic mengumumkan pembaruan kebijakan keselamatan AI-nya, yang juga dikenal sebagai Kebijakan Skala Bertanggung Jawab. Perusahaan menyatakan terpaksa memikirkan ulang kebijakan keselamatannya — yang dianggap sebagian orang sebagai yang terkuat di industri — karena beberapa faktor, termasuk penekanan pemerintah federal pada pertumbuhan ekonomi ketimbang regulasi keselamatan.

Siapapun yang akhirnya menduduki peran manajer kebijakan itu, maka akan menemukan diri mereka berada di pusat debat yang meledak-ledak. Belum lagi, potensinya, kemampuan untuk membantu mencegah ancaman Skynet di masa depan.

Tinggalkan komentar