Perusahaan teknologi raksasa setuju untuk ‘kill switch’ pengembangan AI untuk model yang tidak aman

Sebuah kelompok perusahaan teknologi terkemuka, termasuk OpenAI, Amazon, dan Microsoft, telah setuju pada serangkaian komitmen untuk memastikan pengembangan model AI mereka yang aman. Kesepakatan tersebut mencakup “kill switch” untuk menghentikan pengembangan jika keamanan tidak terjamin.

Kesepakatan ini melibatkan perusahaan dari Inggris, AS, China, Kanada, Prancis, Korea Selatan, dan Uni Emirat Arab.

Disepakati di Seoul AI Safety Summit, pengembang AI terkemuka akan menerbitkan kerangka kerja keamanan tentang bagaimana mereka akan mengukur risiko dari model-model tercanggih mereka.

Dalam kerangka kerja ini, perusahaan teknologi akan membuat “garis merah” yang mereka anggap “tidak dapat diterima”.

Jika keadaan tersebut terjadi, seperti jika model AI berisiko digunakan dalam serangan cyber, perusahaan telah mengonfirmasi bahwa mereka akan menerapkan “kill switch” yang akan menghentikan pengembangan model tersebut.

“Ini pertama kalinya di dunia memiliki begitu banyak perusahaan AI terkemuka dari berbagai bagian dunia yang semua setuju pada komitmen yang sama tentang keamanan AI,” kata Perdana Menteri Inggris Rishi Sunak dalam sebuah pernyataan Selasa (21 Mei).

“Komitmen ini memastikan perusahaan AI terkemuka di dunia akan memberikan transparansi dan akuntabilitas pada rencana mereka untuk mengembangkan AI yang aman,” tambahnya.

GlobalData memperkirakan bahwa pasar AI secara keseluruhan akan bernilai $909 miliar pada tahun 2030, tumbuh pada tingkat tahunan terkonsentrasi sebesar 35% antara 2022 dan 2030.

Di ruang GenAI, pendapatan diperkirakan akan tumbuh dari $1,8 miliar pada tahun 2022, menjadi $33 miliar pada tahun 2027.

“Raksasa teknologi setuju untuk ‘kill switch’ pengembangan AI untuk model yang tidak aman” pertama kali dibuat dan diterbitkan oleh Verdict, sebuah merek milik GlobalData.

MEMBACA  Banyak THR PNS & PPPK Tidak Dibayarkan, 2 Alasan Masalahnya Meningkat