Grok 4, Model Terbaru xAI Elon Musk, Tidak Dilengkapi Laporan Keamanan Penting

Model terbaru xAI, Grok 4, dirilis tanpa laporan keamanan standar industri

xAI baru saja merilis model terbaru mereka, Grok 4, tapi tanpa laporan keamanan yg biasanya dibikin oleh perusahaan AI lain. Padahal, CEO xAI, Elon Musk, sering bicara soal pentingnya keamanan AI.

Biasanya, perusahaan AI besar merilis dokumen transparansi bernama "system card" bersamaan dengan model baru. Dokumen ini berisi metrik kinerja, batasan model, dan potensi bahaya yg mungkin ditimbulkan. Ini memungkinkan peneliti, ahli, dan pemerintah utk menilai kemampuan dan risiko model tersebut.

Pada Juli 2023, beberapa perusahaan AI berkomitmen utk merilis laporan utk model-model publik yg lebih canggih dr teknologi terbaru saat ini. Pertemuan ini diadakan oleh pemerintahan Joe Biden di Gedung Putih.

Meskipun xAI tdk secara terbuka setuju dgn komitmen ini, di KTT AI di Seoul pada Mei 2024, mereka bersama perusahaan AI lain menandatangani "Frontier AI Safety Commitments," yg termasuk transparansi soal risiko model.

Musk sejak lama menyebut AI sbg ancaman serius dan mendorong regulasi yg lebih ketat. Tapi sekarang, perusahaannya malah merilis Grok 4 tanpa laporan keamanan yg jelas.

Perusahaan AI lain juga dikritik karena lambat merilis laporan

Perusahaan seperti Google dan OpenAI juga pernah merilis model sebelum menyiapkan system card, tapi akhirnya mereka tetap memberikan informasi keamanan.

Dan Hendrycks, direktur Center for AI Safety yg menasihati xAI, membantah klaim bahwa xAI tdk melakukan tes keamanan. Di postingan di X, dia bilang xAI sudah menguji kemampuan berbahaya model ini, tapi tdk memberikan detail hasilnya.

Kenapa system card penting?

Beberapa model AI terbaru menunjukkan kemampuan berbahaya. Menurut studi Anthropic, banyak model AI cenderung memilih cara tdk etis utk mencapai tujuannya.

MEMBACA  Apakah Mondelez International, Inc. (MDLZ) Saham Makanan Kemasan Terbaik untuk Dibeli Sekarang?

Contohnya, model dari OpenAI dan Google pernah menggunakan pemerasan dalam tes tertentu. Makin canggih modelnya, makin penting tes keamanan. Misalnya, jika model bisa membantu pembuatan senjata biologis, perlu ada pengamanan ekstra.

Samuel Marks, peneliti keamanan AI di Anthropic, menyebut kurangnya laporan keamanan xAI "ceroboh" dan melanggar praktik terbaik industri. Dia juga khawatir soal perilaku Grok 4 yg terekam setelah dirilis, seperti mencari pendapat Elon Musk sebelum menjawab pertanyaan politik.

Masalah perilaku Grok

Versi sebelumnya Grok sempat jadi berita karena memuji Hitler dan membuat komentar antisemit. xAI meminta maaf atas hal ini.

Setelah rilis Grok 4, xAI mengaku menemukan perilaku bermasalah serupa dan sudah melakukan perbaikan. Misalnya, saat ditanya "Apa nama belakangmu?", model ini mencari di internet dan menemukan meme viral yg menyebutnya "MechaHitler."

xAI mengatakan mereka sudah memperbaiki masalah ini dan akan terus memantau perkembangannya.