Mengukir Kendali AI ke dalam Silikon Dapat Menjauhkan Hari Kiamat

Bahkan algoritma kecerdasan buatan paling cerdas dan licik pun kemungkinan besar harus tunduk pada hukum silikon. Kemampuannya akan terbatas oleh perangkat keras yang digunakannya.

Beberapa peneliti sedang mengeksplorasi cara untuk memanfaatkan koneksi tersebut guna membatasi potensi sistem kecerdasan buatan (AI) untuk menyebabkan kerusakan. Ide tersebut adalah dengan mengkodekan aturan-aturan yang mengatur pelatihan dan implementasi algoritma canggih langsung ke dalam chip komputer yang diperlukan untuk menjalankannya.

Dalam teori – di mana banyak perdebatan tentang bahaya AI yang sangat kuat saat ini – ini mungkin memberikan cara baru yang kuat untuk mencegah negara-negara jahat atau perusahaan yang tidak bertanggung jawab untuk secara diam-diam mengembangkan AI yang berbahaya. Dan lebih sulit untuk dihindari daripada hukum atau perjanjian konvensional. Sebuah laporan yang diterbitkan awal bulan ini oleh Center for New American Security, sebuah lembaga pemikir kebijakan luar negeri Amerika Serikat yang berpengaruh, menguraikan bagaimana silikon yang dibatasi secara hati-hati dapat digunakan untuk menegakkan berbagai kontrol AI.

Beberapa chip sudah memiliki komponen terpercaya yang dirancang untuk melindungi data sensitif atau mencegah penyalahgunaan. Misalnya, iPhone terbaru menyimpan informasi biometrik seseorang di “tempat aman”. Google menggunakan chip kustom di server cloud-nya untuk memastikan tidak ada yang telah dimanipulasi.

Laporan tersebut menyarankan untuk memanfaatkan fitur serupa yang sudah ada di GPU – atau mengukir yang baru ke dalam chip masa depan – untuk mencegah proyek AI mengakses lebih dari sejumlah daya komputasi tertentu tanpa lisensi. Karena diperlukan daya komputasi yang besar untuk melatih algoritma AI paling kuat, seperti yang digunakan oleh ChatGPT, hal tersebut akan membatasi siapa yang dapat membangun sistem paling kuat.

MEMBACA  iOS 18 memiliki wallpaper 'dinamis' yang dapat berubah warna

CNAS mengatakan lisensi dapat dikeluarkan oleh pemerintah atau regulator internasional dan diperbarui secara berkala, sehingga memungkinkan untuk memutus akses pelatihan AI dengan menolak penerbitan lisensi baru. “Anda dapat merancang protokol sedemikian rupa sehingga Anda hanya dapat menerapkan model jika Anda telah menjalankan evaluasi tertentu dan mendapatkan skor di atas ambang batas tertentu – katakanlah untuk keamanan,” kata Tim Fist, seorang rekan di CNAS dan salah satu dari tiga penulis laporan tersebut.

Beberapa tokoh terkemuka di bidang AI khawatir bahwa AI menjadi begitu pintar sehingga suatu hari nanti bisa menjadi liar dan berbahaya. Lebih jauh lagi, beberapa ahli dan pemerintah khawatir bahwa model AI yang sudah ada dapat memudahkan pengembangan senjata kimia atau biologi atau otomatisasi kejahatan siber. Washington telah memberlakukan serangkaian kontrol ekspor chip AI untuk membatasi akses China ke AI paling canggih, karena khawatir dapat digunakan untuk tujuan militer – meskipun penyelundupan dan rekayasa cerdik telah memberikan beberapa cara untuk menghindarinya. Nvidia menolak berkomentar, tetapi perusahaan tersebut telah kehilangan miliaran dolar pesanan dari China karena kontrol ekspor AS sebelumnya.

Fist dari CNAS mengatakan bahwa meskipun membatasi pembatasan ke dalam perangkat keras komputer mungkin terlihat ekstrem, ada preseden dalam membangun infrastruktur untuk memantau atau mengontrol teknologi penting dan menegakkan perjanjian internasional. “Jika Anda memikirkan tentang keamanan dan nonproliferasi nuklir, teknologi verifikasi sangat penting untuk menjamin perjanjian,” kata Fist dari CNAS. “Jaringan seismometer yang kita miliki sekarang untuk mendeteksi uji coba nuklir bawah tanah adalah landasan perjanjian yang menyatakan bahwa kita tidak akan melakukan uji coba senjata bawah tanah di atas ambang batas kiloton tertentu.”

MEMBACA  Ulasan Kasur Amerisleep | Alasan untuk Membeli/ TIDAK Membeli

Ide-ide yang diajukan oleh CNAS tidak sepenuhnya teoritis. Chip pelatihan AI yang sangat penting dari Nvidia – yang sangat penting untuk membangun model AI paling kuat – sudah dilengkapi dengan modul kriptografi yang aman. Dan pada November 2023, para peneliti di Future of Life Institute, sebuah lembaga nirlaba yang didedikasikan untuk melindungi umat manusia dari ancaman eksistensial, dan Mithril Security, sebuah startup keamanan, membuat demo yang menunjukkan bagaimana modul keamanan dari CPU Intel dapat digunakan untuk skema kriptografi yang dapat membatasi penggunaan tidak sah dari model AI.