Anthropic memperingatkan bencana AI jika pemerintah tidak mengatur dalam 18 bulan

Hanya beberapa hari lagi menuju pemilihan presiden AS, perusahaan AI Anthropic mendorong regulasinya sendiri — sebelum terlambat. Pada hari Kamis, perusahaan, yang menonjol di industri karena fokusnya pada keamanan, merilis rekomendasi untuk pemerintah untuk menerapkan “regulasi yang ditargetkan” bersamaan dengan data yang mungkin mengkhawatirkan tentang meningkatnya risiko AI yang disebutnya sebagai “risiko AI yang menghancurkan. Selain itu: Kecemasan buatan, kecemasan nyata: Mengapa kita tidak bisa berhenti khawatir dan mencintai AI. Risiko Dalam sebuah pos blog, Anthropic mencatat seberapa banyak kemajuan model AI telah dicapai dalam pengkodean dan serangan siber hanya dalam satu tahun. “Pada tugas teknik perangkat lunak SWE-bench, model telah meningkat dari mampu menyelesaikan 1,96% dari kumpulan tes masalah pemrograman dunia nyata (Claude 2, Oktober 2023) menjadi 13,5% (Devin, Maret 2024) menjadi 49% (Claude 3.5 Sonnet, Oktober 2024),” tulis perusahaan. “Secara internal, Tim Merah Frontier kami menemukan bahwa model saat ini sudah bisa membantu dalam berbagai tugas terkait serangan siber, dan kami mengharapkan bahwa generasi berikutnya dari model — yang akan mampu merencanakan tugas yang panjang dan multi-langkah — akan lebih efektif.” Selain itu, pos blog juga mencatat bahwa sistem AI telah meningkatkan pemahaman ilmiah mereka hampir 18% dari Juni hingga September tahun ini saja, menurut tes benchmark GPQA. OpenAI o1 mencapai 77,3% pada bagian terberat dari tes; para ahli manusia mencetak 81,2%. Perusahaan juga mengutip uji risiko Institut Keselamatan AI Inggris pada beberapa model untuk penyalahgunaan kimia, biologi, radiologi, dan nuklir (CBRN), yang menemukan bahwa “model dapat digunakan untuk mendapatkan pengetahuan tingkat ahli tentang biologi dan kimia.” Juga ditemukan bahwa tanggapan beberapa model terhadap pertanyaan ilmiah “sebanding dengan yang diberikan oleh para ahli tingkat PhD.” Juga: Model AI terbaru dari Anthropic dapat menggunakan komputer seperti Anda – kesalahan dan semuanya Data ini melampaui prediksi Anthropic pada tahun 2023 bahwa risiko siber dan CBRN akan menjadi tekanan dalam dua hingga tiga tahun. “Berdasarkan kemajuan yang dijelaskan di atas, kami percaya kami sekarang jauh lebih dekat dengan risiko seperti itu,” kata blog tersebut. Pedoman untuk pemerintah “Regulasi yang bijaksana dan ditargetkan dapat memungkinkan kita mendapatkan yang terbaik dari kedua dunia: mewujudkan manfaat AI sambil memitigasi risikonya,” jelas blog tersebut. “Lambat dalam bertindak dapat mengarah pada yang terburuk dari kedua dunia: regulasi yang dirancang dengan buruk, refleks lutut yang menghambat kemajuan sambil juga gagal efektif.” Anthropic menyarankan panduan untuk tindakan pemerintah untuk mengurangi risiko tanpa menghambat inovasi di bidang ilmu pengetahuan dan perdagangan, menggunakan Kebijakan Skala Bertanggung Jawab (RSP) sendiri sebagai “prototipe” tetapi bukan penggantinya. Mengakui bahwa sulit untuk memperkirakan kapan harus menerapkan pagar pengaman, Anthropic menjelaskan RSP-nya sebagai kerangka manajemen risiko proporsional yang disesuaikan dengan kemampuan tumbuh AI melalui pengujian rutin. Juga: Mengimplementasikan AI? Periksa basis data gratis MIT untuk risikonya “Struktur ‘jika-maka’ mengharuskan tindakan keamanan dan keamanan diterapkan, tetapi hanya ketika model menjadi cukup mampu untuk membenarkannya,” jelas Anthropic. Perusahaan mengidentifikasi tiga komponen untuk regulasi AI yang sukses: transparansi, memberikan insentif keamanan, dan kesederhanaan dan fokus. Saat ini, publik tidak dapat memverifikasi apakah sebuah perusahaan AI mematuhi pedoman keamanannya sendiri. Untuk membuat catatan yang lebih baik, Anthropic mengatakan, pemerintah harus meminta perusahaan “memiliki dan menerbitkan kebijakan serupa dengan RSP,” membagi-bagi perlindungan mana yang akan dipicu kapan, dan menerbitkan evaluasi risiko untuk setiap generasi sistem mereka. Tentu saja, pemerintah juga harus memiliki metode verifikasi bahwa semua pernyataan perusahaan tersebut, sebenarnya benar. Anthropic juga merekomendasikan agar pemerintah memberikan insentif praktik keamanan berkualitas tinggi. “Pihak regulator dapat mengidentifikasi model ancaman yang harus diatasi oleh RSP, di bawah standar kewajaran tertentu, sambil meninggalkan detail kepada perusahaan. Atau mereka bisa sekadar menetapkan standar yang harus dipenuhi oleh RSP,” saran perusahaan. Juga: Bisnis masih siap untuk berinvestasi di Gen AI, dengan manajemen risiko sebagai prioritas utama Bahkan jika insentif-insentif ini tidak langsung, Anthropic mendorong pemerintah untuk menjaganya tetap fleksibel. “Penting bagi proses regulasi untuk belajar dari praktik terbaik saat evolusi, daripada menjadi statis,” kata blog tersebut — meskipun hal itu mungkin sulit bagi sistem birokratis untuk mencapainya. Mungkin tidak perlu dikatakan, tetapi Anthropic juga menekankan bahwa undang-undang harus mudah dipahami dan diimplementasikan. Mendeskripsikan regulasi yang ideal sebagai “bedah,” perusahaan menganjurkan “kesederhanaan dan fokus” dalam saran-sarannya, mendorong pemerintah untuk tidak menciptakan “beban” yang tidak perlu bagi perusahaan AI yang mungkin mengganggu. “Salah satu hal terburuk yang bisa terjadi pada upaya mencegah risiko yang menghancurkan adalah terbentuknya hubungan antara regulasi yang diperlukan untuk mencegah risiko dan aturan yang membebani atau tidak logis,” kata blog tersebut. Saran Industri Anthropic juga mendorong perusahaan AI rekan-rekannya untuk menerapkan RSP yang mendukung regulasi. Perusahaan menunjukkan pentingnya menempatkan keamanan dan keselamatan komputer di depan, bukan setelah risiko menyebabkan kerusakan — dan betapa krusialnya hal itu membuat perekrutan menuju tujuan tersebut. “Bila diimplementasikan dengan benar, RSP mengarahkan struktur dan prioritas organisasi. Mereka menjadi bagian kunci dari peta jalan produk, daripada hanya menjadi kebijakan di atas kertas,” catat blog tersebut. Anthropic mengatakan RSP juga mendorong pengembang untuk menjelajahi dan mengulang model ancaman, bahkan jika mereka abstrak. Juga: Ekosistem AI hari ini tidak berkelanjutan bagi sebagian besar orang selain Nvidia Jadi apa yang akan terjadi selanjutnya? “Sangat penting selama setahun ke depan bahwa pembuat kebijakan, industri AI, advokat keselamatan, masyarakat sipil, dan legislator bekerja sama untuk mengembangkan kerangka regulasi yang efektif yang memenuhi kondisi di atas,” demikian kesimpulan Anthropic. “Di AS, hal ini sebaiknya terjadi di tingkat federal, meskipun urgensi mungkin menuntut agar ini malah dikembangkan oleh negara-negara bagian individual.”

MEMBACA  Ulasan Teko Listrik 1.7 Liter yang Indah: Ketika Bentuk dan Fungsi Masuk Akal