Laporan Keamanan AI Terbaru Google: Menilik AI di Luar Kendali Manusia

wildpixel / iStock / Getty Images Plus via Getty Images

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.

*
Poin Penting ZDNET**

  • Kerangka Keamanan Terbaru Google mengeksplorasi risiko AI.
  • Mengidentifikasi tiga kategori resiko untuk AI.
  • Meskipun ada risiko, regulasi tetap berjalan lambat.
    ***

    Salah satu ironi besar dari booming AI yang sedang berlangsung adalah bahwa seiring teknologi ini menjadi lebih maju secara teknis, ia juga menjadi lebih tidak terprediksi. "Kotak hitam" AI menjadi semakin gelap seiring dengan meningkatnya jumlah parameter suatu sistem — dan ukuran dataset-nya. Dengan tidak adanya pengawasan federal yang kuat, perusahaan-perusahaan teknologi yang dengan agresif mendorong alat-alat AI untuk konsumen juga menjadi entitas yang, secara default, menetapkan standar untuk penyebaran teknologi yang berkembang pesat ini dengan aman.

    Juga: Model AI tahu kapan mereka sedang diuji – dan mengubah perilakunya, tunjukkan penelitian

    Pada hari Senin, Google mempublikasikan iterasi terbaru dari Frontier Safety Framework (FSF), yang berupaya memahami dan mengurangi bahaya yang ditimbulkan oleh model-model AI terkemuka di industri. Fokusnya adalah pada apa yang disebut Google sebagai "Tingkat Kapabilitas Kritis" atau CCL, yang dapat dianggap sebagai ambang batas kemampuan di mana sistem AI dapat lepas dari kendali manusia dan karenanya membahayakan pengguna individu atau masyarakat luas.

    Google mempublikasikan kerangka baru ini dengan niat untuk menetapkan standar keselamatan baru bagi pengembang teknologi dan regulator, dengan catatan bahwa mereka tidak dapat melakukannya sendiri.

    "Adopsi kami terhadap mereka akan menghasilkan mitigasi risiko yang efektif bagi masyarakat hanya jika semua organisasi terkait menyediakan tingkat perlindungan yang serupa," tulis tim peneliti perusahaan.

    Juga: AI sama sekali tidak ‘bernalar’ – bagaimana tim ini membantah hype industri

    Kerangka ini membangun upon penelitian yang sedang berlangsung di seluruh industri AI untuk memahami kapasitas model dalam menipu dan terkadang bahkan mengancam pengguna manusia ketika mereka merasa tujuan mereka digagalkan. Kapasitas (dan bahaya yang menyertainya) ini telah tumbuh dengan munculnya agen AI, atau sistem yang dapat menjalankan tugas multi-tahap dan berinteraksi dengan banyak alat digital dengan pengawasan manusia yang minimal.

    Tiga Kategori Risiko

    Kerangka baru Google mengidentifikasi tiga kategori CCL.

    Pertama adalah "penyalahgunaan", di mana model memberikan bantuan dalam pelaksanaan serangan siber, pembuatan senjata (kimia, biologis, radiologis, atau nuklir), atau manipulasi pengguna manusia yang jahat dan disengaja.

    Kedua adalah "R&D pembelajaran mesin", yang merujuk pada terobosan teknis di bidang ini yang meningkatkan kemungkinan timbulnya risiko baru di masa depan. Misalnya, bayangkan sebuah perusahaan teknologi yang menggunakan agen AI yang satu-satunya tanggung jawab adalah merancang cara-cara yang lebih efisien untuk melatih sistem AI baru, dengan hasil bahwa cara kerja sistem baru yang dihasilkan semakin sulit dipahami oleh manusia.

    Juga: Akankah AI berpikir seperti manusia? Kita bahkan belum dekat – dan kita menanyakan pertanyaan yang salah

    Lalu ada apa yang digambarkan perusahaan sebagai CCL "ketidakselarasan". Ini didefinisikan sebagai contoh di mana model dengan kemampuan penalaran lanjut memanipulasi pengguna manusia melalui kebohongan atau jenis penipuan lainnya. Para peneliti Google mengakui bahwa ini adalah area yang lebih "eksploratif" dibandingkan dengan dua lainnya, dan sarana mitigasi yang mereka usulkan — "sistem pemantauan untuk mendeteksi penggunaan kapabilitas penalaran instrumental yang tidak sah" — karenanya agak kabur.

    "Begitu sebuah model mampu melakukan penalaran instrumental yang efektif dengan cara yang tidak dapat dipantau, mitigasi tambahan mungkin diperlukan — pengembangannya merupakan area penelitian aktif," kata para peneliti.

    Pada saat yang sama, di latar belakang kerangka keamanan baru Google ini, semakin banyak laporan tentang psikosis AI, atau contoh di mana penggunaan chatbot AI yang berkepanjangan menyebabkan pengguna tergelincir ke dalam pola pikir delusional atau konspirasi karena pandangan dunia mereka yang sudah ada sebelumnya secara rekursif dipantulkan kembali kepada mereka oleh model-model tersebut.

    Juga: Jika anak Anda menggunakan ChatGPT dalam keadaan tertekan, OpenAI akan memberi tahu Anda sekarang

    Namun, seberapa besar reaksi pengguna dapat diatribusikan kepada chatbot itu sendiri masih menjadi bahan perdebatan hukum, dan pada dasarnya masih belum jelas pada titik ini.

    Lanskap Keamanan yang Kompleks

    Untuk saat ini, banyak peneliti keselamatan sepakat bahwa model-model terdepan yang tersedia dan digunakan saat ini kecil kemungkinannya untuk menjalankan risiko terburuk ini — banyak pengujian keselamatan menangani masalah yang mungkin ditunjukkan oleh model di masa depan dan bertujuan untuk bekerja mundur untuk mencegahnya. Namun, di tengah kontroversi yang semakin meningkat, para pengembang teknologi telah terkunci dalam perlombaan yang semakin menjadi-jadi untuk membangun chatbot AI yang lebih mirip manusia dan agen.

    Juga: Getaran buruk: Bagaimana sebuah agen AI memprogram jalannya menuju bencana

    Sebagai pengganti regulasi federal, perusahaan-perusahaan yang sama itulah yang menjadi badan utama yang mempelajari risiko yang ditimbulkan oleh teknologi mereka dan menentukan pengamanannya. OpenAI, misalnya, baru-baru ini memperkenalkan langkah-langkah untuk memberi tahu orang tua ketika anak-anak atau remaja menunjukkan tanda-tanda tekanan saat menggunakan ChatGPT.

    Namun, dalam keseimbangan antara kecepatan dan keselamatan, logika kasar kapitalisme cenderung mengutamakan yang pertama.

    Beberapa perusahaan secara agresif meluncurkan pendamping AI, avatar virtual yang didukung oleh model bahasa besar dan dimaksudkan untuk terlibat dalam percakapan seperti manusia — dan terkadang terang-terangan menggoda — dengan pengguna manusia.

    Juga: Bahkan CEO OpenAI Sam Altman berpikir Anda tidak harus mempercayai AI untuk terapi

    Meskipun pemerintahan Trump kedua telah mengambil pendekatan yang umumnya longgar terhadap industri AI, memberinya kelonggaran luas untuk membangun dan menyebarkan alat-alat baru untuk konsumen, Federal Trade Commission (FTC) melakukan investigasi awal bulan ini terhadap tujuh pengembang AI (termasuk Alphabet, perusahaan induk Google) untuk memahami bagaimana penggunaan pendamping AI dapat membahayakan anak-anak.

    Sementara itu, legislasi lokal berusaha menciptakan perlindungan. RUU Negara Bagian California 243, sementara itu, yang akan mengatur penggunaan pendamping AI untuk anak-anak dan beberapa pengguna rentan lainnya, telah melalui Majelis dan Senat Negara Bagian, dan hanya perlu ditandatangani oleh Gubernur Gavin Newsom sebelum menjadi hukum negara bagian.

MEMBACA  Monitor LG 5K2K yang dapat dilipat akan menjadi pilihan utama bagi para gamer dan profesional