OpenAI memperbarui kerangka keamanannya—tapi tidak lagi melihat manipulasi massa dan disinformasi sebagai risiko kritis.

OpenAI mengatakan bahwa mereka akan berhenti menilai model AI mereka sebelum merilisnya karena risiko bahwa model tersebut dapat mempengaruhi atau memanipulasi orang, mungkin membantu mempengaruhi pemilihan umum atau menciptakan kampanye propaganda yang sangat efektif.

Perusahaan tersebut mengatakan bahwa mereka sekarang akan mengatasi risiko-risiko tersebut melalui syarat dan ketentuan mereka, membatasi penggunaan model AI mereka dalam kampanye politik dan lobi, dan memantau bagaimana orang menggunakan model tersebut setelah dirilis untuk melihat tanda-tanda pelanggaran.

OpenAI juga mengatakan bahwa mereka akan mempertimbangkan merilis model AI yang mereka anggap sebagai “risiko tinggi” selama mereka telah mengambil langkah-langkah yang tepat untuk mengurangi bahaya tersebut—dan bahkan akan mempertimbangkan merilis model yang menimbulkan apa yang mereka sebut sebagai “risiko kritis” jika sebuah laboratorium AI pesaing telah merilis model serupa. Sebelumnya, OpenAI telah mengatakan bahwa mereka tidak akan merilis model AI yang menimbulkan risiko lebih dari “risiko sedang.”

Perubahan kebijakan tersebut dijelaskan dalam pembaruan Kerangka Kesiapsiagaan OpenAI kemarin. Kerangka tersebut menjelaskan bagaimana perusahaan tersebut memantau model AI yang sedang mereka bangun untuk bahaya-bahaya yang mungkin terjadi—mulai dari kemungkinan model tersebut akan membantu seseorang menciptakan senjata biologis hingga kemampuannya untuk membantu peretas atau kemungkinan model tersebut akan meningkatkan diri dan lolos dari kendali manusia.

Perubahan kebijakan membagi para ahli keamanan dan keamanan AI. Beberapa di antaranya mengkritik OpenAI karena secara sukarela merilis kerangka kerja yang diperbarui, mencatat peningkatan seperti kategorisasi risiko yang lebih jelas dan penekanan yang lebih kuat pada ancaman yang muncul seperti replikasi otonom dan penghindaran perlindungan.

Namun, yang lain mengungkapkan keprihatinan, termasuk Steven Adler, mantan peneliti keamanan OpenAI yang mengkritik kenyataan bahwa kerangka kerja yang diperbarui tidak lagi memerlukan pengujian keamanan model yang disesuaikan. “OpenAI secara diam-diam mengurangi komitmen keamanannya,” tulisnya di X. Namun, dia menekankan bahwa dia menghargai upaya OpenAI: “Secara keseluruhan saya senang melihat Kerangka Kesiapsiagaan diperbarui,” katanya. “Ini kemungkinan merupakan banyak pekerjaan, dan sebenarnya tidak benar-benar diperlukan.”

MEMBACA  Ford Naikkan Proyeksi Dampak Tarif pada Hasil, Saham Turun 3%

Beberapa kritikus menyoroti penghapusan persuasi dari bahaya yang ditangani oleh Kerangka Kesiapsiagaan.

“OpenAI tampaknya sedang mengubah pendekatannya,” kata Shyam Krishna, pemimpin penelitian kebijakan dan tata kelola AI di RAND Europe. “Alih-alih memperlakukan persuasi sebagai kategori risiko inti, sekarang mungkin akan diatasi baik sebagai isu sosial dan regulasi yang lebih tinggi atau diintegrasikan ke dalam panduan OpenAI yang ada tentang pengembangan model dan pembatasan penggunaan.” Masih perlu dilihat bagaimana hal ini akan berdampak pada bidang seperti politik, tambahnya, di mana kemampuan persuasif AI masih merupakan isu yang diperdebatkan.”

Courtney Radsch, seorang fellow senior di Brookings, Center for International Governance Innovation, dan Center for Democracy and Technology yang bekerja pada etika AI, lebih jauh lagi menyebut kerangka kerja tersebut dalam sebuah pesan kepada Fortune sebagai “contoh lain dari kesombongan sektor teknologi.” Dia menekankan bahwa keputusan untuk menurunkan ‘persuasi’ “mengabaikan konteks—misalnya, persuasi mungkin berbahaya secara eksistensial bagi individu seperti anak-anak atau orang dengan literasi AI rendah atau dalam negara dan masyarakat yang otoriter.”

Oren Etzioni, mantan CEO dari Allen Institute for AI dan pendiri TrueMedia, yang menawarkan alat untuk melawan konten yang dimanipulasi AI, juga mengungkapkan kekhawatiran. “Menurunkan penipuan terasa seperti sebuah kesalahan mengingat meningkatnya kekuatan persuasif LLMs,” katanya dalam sebuah email. “Seseorang harus bertanya-tanya apakah OpenAI hanya fokus pada mengejar pendapatan dengan sedikit perhatian terhadap dampak sosial.”

Namun, seorang peneliti keamanan AI yang tidak berafiliasi dengan OpenAI mengatakan kepada Fortune bahwa tampak wajar untuk hanya menangani risiko-risiko dari disinformasi atau penggunaan persuasi jahat melalui syarat dan ketentuan OpenAI. Peneliti tersebut, yang meminta untuk tetap anonim karena tidak diizinkan untuk berbicara secara publik tanpa izin dari majikannya saat ini, menambahkan bahwa risiko persuasi/manipulasi sulit dievaluasi dalam pengujian pra-implementasi. Selain itu, dia menunjukkan bahwa kategori risiko ini lebih kurang jelas dan ambivalen dibandingkan dengan risiko kritis lainnya, seperti risiko AI akan membantu seseorang melakukan serangan senjata kimia atau biologis atau akan membantu seseorang dalam serangan cyber.

MEMBACA  Trailer \'Perang Kelas Kuliner\' Netflix terlihat seperti perpaduan antara \'Iron Chef\' dan \'MasterChef\'

Menariknya, beberapa Anggota Parlemen Eropa juga menyuarakan kekhawatiran bahwa draf terbaru dari kode praktik untuk mematuhi Undang-Undang AI UE juga menurunkan pengujian wajib dari model AI untuk kemungkinan menyebarkan disinformasi dan merusak demokrasi menjadi pertimbangan sukarela.

Studi telah menemukan bahwa chatbot AI sangat persuasif, meskipun kemampuan ini sendiri tidak selalu berbahaya. Para peneliti di Universitas Cornell dan MIT, misalnya, menemukan bahwa dialog dengan chatbot efektif dalam membuat orang mempertanyakan teori konspirasi.

Kritik lain terhadap kerangka kerja terbaru OpenAI berpusat pada baris di mana OpenAI menyatakan: “Jika pengembang AI frontier lain merilis sistem risiko tinggi tanpa perlindungan yang sebanding, kita mungkin akan menyesuaikan persyaratan kami.”

Max Tegmark, presiden Future of Life Institute, sebuah organisasi nirlaba yang bertujuan untuk mengatasi risiko eksistensial, termasuk ancaman dari sistem AI canggih, mengatakan dalam sebuah pernyataan kepada Fortune bahwa “perlombaan menuju ke bawah semakin cepat. Perusahaan-perusahaan ini secara terang-terangan bersaing untuk membangun kecerdasan buatan umum yang tak terkendali—sistem AI yang lebih pintar dari manusia—meskipun mengakui risiko besar yang ditimbulkan terhadap pekerja, keluarga kita, keamanan nasional kita, bahkan keberlangsungan hidup kita.”

“Mereka pada dasarnya memberikan sinyal bahwa tidak ada yang mereka katakan tentang keamanan AI yang tertulis di batu,” kata kritikus OpenAI sejak lama Gary Marcus dalam pesan LinkedIn, yang mengatakan bahwa baris tersebut memperingatkan perlombaan ke bawah. “Apa yang benar-benar mengatur keputusan mereka adalah tekanan kompetitif—bukan keamanan. Perlahan-lahan, mereka telah mengikis segala sesuatu yang dahulu mereka janjikan. Dan dengan platform media sosial baru yang mereka usulkan, mereka sedang memberikan sinyal pergeseran menuju menjadi perusahaan surveilans berorientasi laba yang menjual data pribadi—daripada lembaga nirlaba yang berfokus pada kebaikan manusia.”

MEMBACA  Elon Musk mengatakan seseorang dengan chip Neuralink bisa mengalahkan gamer profesional dalam beberapa tahun

Secara keseluruhan, berguna bahwa perusahaan seperti OpenAI berbagi pemikiran mereka seputar praktik manajemen risiko mereka secara terbuka, kata Miranda Bogen, direktur laboratorium tata kelola AI di Center for Democracy & Technology, kepada Fortune dalam sebuah email.

Namun, katanya, dia khawatir tentang memindahkan tiang gol. “Akan menjadi tren yang mengkhawatirkan jika, tepat ketika sistem AI tampaknya mendekati risiko tertentu, risiko-risiko tersebut sendiri menjadi kurang diutamakan dalam pedoman yang perusahaan tetapkan untuk diri mereka sendiri,” ujarnya.

Di samping itu, dia mengkritik fokus kerangka kerja pada model ‘frontier’ ketika OpenAI dan perusahaan lain telah menggunakan definisi teknis dari istilah tersebut sebagai alasan untuk tidak menerbitkan evaluasi keamanan dari model-model terbaru yang kuat. (Sebagai contoh, OpenAI merilis model 4.1 mereka kemarin tanpa laporan keamanan, mengatakan bahwa model tersebut bukan merupakan model ‘frontier’). Dalam kasus lain, perusahaan-perusahaan entah gagal untuk menerbitkan laporan keamanan atau lambat melakukannya, menerbitkannya bulan-bulan setelah model tersebut dirilis.

“Antara masalah-masalah semacam itu dan pola yang muncul di kalangan pengembang AI di mana model-model baru diluncurkan jauh sebelum atau sepenuhnya tanpa dokumen yang perusahaan sendiri janjikan untuk dirilis, jelas bahwa komitmen sukarela hanya sejauh itu,” katanya.

Update, 16 April: Cerita ini telah diperbarui untuk menyertakan komentar dari Presiden Future of Life Institute, Max Tegmark.

Cerita ini awalnya ditampilkan di Fortune.com