Eksklusif: Detail Model AI Belum Rilis dan Acara Khusus CEO, Anthropic Tinggalkan dalam Basis Data Tanpa Keamanan

Perusahaan AI Anthropic tidak sengaja bocorkan detail tentang peluncuran model baru yang akan datang, acara eksklusif untuk CEO, dan data internal lain nya, termasuk gambar dan PDF. Ini kelihatannya adalah kesalahan keamanan yang besar.

Informasi yang seharusnya belum publik itu bisa diakses melalui sistem manajemen konten (CMS) perusahaan, yang dipakai Anthropic untuk menerbitkan info ke bagian tertentu dari situs web mereka.

Totalnya, ada hampir 3.000 aset yang terhubung ke blog Anthropic yang belum pernah dipublikasikan ke situs berita atau riset perusahaan, tapi ternyata bisa diakses publik di cache data ini, kata seorang peneliti keamanan siber.

Setelah Fortune memberi tahu Anthropic tentang masalah ini pada Kamis, perusahaan mengambil langkah untuk mengamankan data sehingga tidak lagi bisa diakses publik.

Sebelumnya, Anthropic menyimpan semua konten untuk situs webnya—seperti posting blog, gambar, dan dokumen—di sistem pusat yang bisa diakses tanpa login. Siapa pun dengan pengetahuan teknis bisa mengirim permintaan ke sistem yang terbuka itu dan meminta informasi tentang file yang ada di dalamnya.

Masalahnya sepertinya berasal dari cara kerja CMS yang digunakan Anthropic. Semua aset—seperti logo, grafik, atau makalah penelitian—yang diunggah ke penyimpanan data pusat bersifat publik secara default, kecuali secara eksplisit diatur sebagai privat. Perusahaan tampaknya lupa membatasi akses ke beberapa dokumen yang tidak seharusnya publik, sehingga banyak file tersedia di danau data publik perusahaan.

“Masalah dengan salah satu alat CMS eksternal kami menyebabkan konten draf bisa diakses,” kata juru bicara Anthropic. Mereka menyebut ini sebagai “kesalahan manusia dalam konfigurasi CMS.”

Ada beberapa kasus terkenal belakangan ini di mana perusahaan teknologi mengalami masalah teknis karena kode yang dihasilkan AI. Tapi Anthropic, yang membuat model AI Claude dan telah mengotomatisasi banyak pengembangan perangkat lunak internalnya sendiri menggunakan agen coding AI berbasis Claude, mengatakan AI tidak bersalah dalam kasus ini.

MEMBACA  Cara Mencadangkan PC Windows Secara Lengkap dan Gratis (Bahkan Saat Berfungsi dengan Baik Sekarang)

Masalah dengan CMS-nya “tidak terkait dengan Claude, Cowork, atau alat AI Anthropic mana pun,” kata juru bicara itu.

Perusahaan juga berusaha mengecilkan arti dari beberapa materi yang dibiarkan tidak aman. “Materi-materi ini adalah draf awal konten yang dipertimbangkan untuk publikasi dan tidak melibatkan infrastruktur inti kami, sistem AI, data pelanggan, atau arsitektur keamanan,” kata juru bicara tersebut.

Dokumen-dokumen itu termasuk detail pengumuman produk yang akan datang, termasuk informasi tentang model AI yang belum dirilis yang digambarkan sebagai model paling canggih yang pernah mereka latih.

Data yang bisa diakses publik juga termasuk info tentang retret mendatang yang hanya dengan undangan untuk CEO perusahaan besar Eropa di Inggris, yang rencananya akan dihadiri CEO Anthropic Dario Amodei.

Ini bukan pertama kalinya perusahaan tech tidak sengaja membocorkan aset internal atau pra-rilis dengan membiarkannya bisa diakses publik sebelum pengumuman resmi.

Perusahaan game seperti Epic Games dan Nintendo juga pernah mengalami kebocoran gambar pra-rilis dan aset dalam game melalui sistem jaringan pengiriman konten (CDN) atau server staging, mirip dengan danau data yang digunakan Anthropic.

Namun, masalah ini kemungkinan diperparah oleh alat coding AI yang sekarang mudah didapat di pasaran—termasuk Claude Code milik Anthropic sendiri.

Alat-alat ini bisa mengotomatisasi perayapan, deteksi pola, dan korelasi aset yang bisa diakses publik, membuat penemuan konten semacam ini jauh lebih mudah dan hambatannya lebih rendah.

Tinggalkan komentar