Ketika Anthropic diluncurkan beberapa tahun lalu, perusahaan tersebut menginginkan “perlombaan menuju puncak” secara industri dalam kecerdasan buatan, alih-alih perlombaan ke dasar yang hanya mengejar pelanggan dan dominasi pasar yang justru dapat berisiko menimbulkan bahaya keamanan katastrofik.
Oleh karena itu, Anthropic mengadopsi prinsip dan kebijakan keamanan yang diharapkan juga akan diterapkan oleh para pesaingnya. Dalam beberapa kasus, perusahaan-perusahaan seperti Google dan OpenAI memang menerapkannya, menurut Anthropic. Namun, harapan Anthropic tersebut tidak “terwujud” seperti yang diinginkan perusahaan, sebagaimana diungkap dalam postingan blog yang mereka terbitkan hari Selasa.
Postingan itu mengumumkan bahwa Anthropic, pembuat chatbot AI Claude, sedang mengubah praktik keamanan intinya untuk memenuhi tantangan yang dianggap relevan saat ini.
Secara spesifik, Anthropic tidak akan lagi secara otomatis menghentikan pengembangan model jika dianggap berbahaya; sebaliknya, mereka akan mempertimbangkan tindakan pesaing dan apakah mereka merilis model dengan kemampuan serupa. Sebelumnya, Anthropic berkomitmen pada pengamanan yang akan mengurangi risiko absolut modelnya, terlepas dari apakah pengembang AI lain melakukan hal yang sama.
“Lanskap kebijakan telah bergeser ke arah prioritas daya saing AI dan pertumbuhan ekonomi, sementara diskusi berorientasi keamanan belum mendapatkan daya tarik yang berarti di tingkat federal,” tulis perusahaan tersebut. “Kami tetap yakin bahwa keterlibatan pemerintah yang efektif mengenai keamanan AI itu perlu dan dapat dicapai, dan kami bertujuan untuk terus memajukan percakapan yang didasarkan pada bukti, kepentingan keamanan nasional, daya saing ekonomi, dan kepercayaan publik. Tetapi ini terbukti menjadi proyek jangka panjang—bukan sesuatu yang terjadi secara organik seiring AI menjadi lebih canggih atau melampaui ambang batas tertentu.”
Meski Anthropic menyatakan tetap bertujuan memimpin dalam aspek keamanan, keputusan terbarunya mencerminkan kecepatan luar biasa di mana para pesaing merilis model baru.
Anthropic juga berada dibawah tekanan intens dari Departemen Pertahanan AS pekan ini, yang mendesak perusahaan untuk mengizinkan militer menggunakan alat AI-nya untuk tujuan apa pun, termasuk pengawasan massal atau penggunaan senjata otonom tanpa pengawasan manusia.
Anthropic belum menyerah pada poin-poin tersebut dalam negosiasi kontrak dengan Departemen Pertahanan, yang dilaporkan memicu kemarahan Menteri Pertahanan Pete Hegseth, yang mengancam akan memutus hubungan perusahaan dengan militer, menurut laporan Axios.
Anthropic telah berpartisipasi dalam program percontohan AI untuk analisis citra terkait militer, bersama Google, OpenAI, dan xAI, menurut New York Times. Meskipun Claude menjadi satu-satunya chatbot yang beroperasi pada sistem terklasifikasi pemerintah, seorang pejabat Pentagon mengatakan Anthropic bisa digantikan oleh perusahaan lain.
Keterangan: Ziff Davis, perusahaan induk Mashable, pada April 2025 mengajukan gugatan terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.
Topik
Kecerdasan Buatan
Social Good