Sepertinya sejak AI masuk ke dunia kita, para pencipta telah menempatkan kaki pimpinan pada gas. Namun, menurut dokumen kebijakan baru, CEO Meta Mark Zuckerberg mungkin akan melambatkan atau menghentikan pengembangan sistem AGI yang dianggap “risiko tinggi” atau “risiko kritis.”
AGI adalah sistem AI yang dapat melakukan apa pun yang dapat dilakukan manusia, dan Zuckerberg berjanji untuk membuatnya tersedia secara terbuka suatu hari nanti. Tapi dalam dokumen “Frontier AI Framework,” Zuckerberg mengakui bahwa beberapa sistem AI yang sangat mampu tidak akan dirilis secara publik karena bisa terlalu berisiko.
Kerangka kerja “berfokus pada risiko paling kritis di bidang ancaman keamanan Siber dan risiko dari senjata kimia dan biologis.”
“Mengutamakan area ini, kami dapat bekerja untuk melindungi keamanan nasional sambil mempromosikan inovasi. Kerangka kerja kami menguraikan sejumlah proses yang kami ikuti untuk memperkirakan dan mengurangi risiko saat mengembangkan sistem AI perbatasan,” tulis siaran pers tentang dokumen tersebut.
Misalnya, kerangka kerja bermaksud untuk mengidentifikasi “hasil bencana potensial terkait risiko siber, kimia, dan biologis yang kami upayakan untuk mencegah.” Itu juga melakukan “latihan pemodelan ancaman untuk memperkirakan bagaimana berbagai aktor mungkin mencoba menyalahgunakan AI perbatasan untuk menghasilkan hasil bencana itu” dan memiliki “proses yang diterapkan untuk menjaga risiko dalam tingkat yang dapat diterima.”
Jika perusahaan menentukan bahwa risiko terlalu tinggi, itu akan menjaga sistem internal daripada memperbolehkan akses publik.
“Meskipun fokus Kerangka Kerja ini pada upaya kami untuk memperkirakan dan mengurangi risiko hasil bencana, penting untuk menekankan bahwa alasan mengembangkan sistem AI canggih dalam hal pertama adalah karena potensi luar biasa manfaat bagi masyarakat dari teknologi tersebut,” dokumen tersebut menyatakan.
Namun, sepertinya Zuckerberg sedang menginjak rem – setidaknya untuk saat ini – pada jalur cepat AGI ke masa depan.