Mayoritas perusahaan sangat protektif terhadap rencana rilis produk mereka, menggunakan nama kode internal dan mewajibkan jurnalis menyetujui embargo sebelum mengungkap detail. Tanpa disengaja, Anthropic memilih strategi baru: biarkan semua rencananya bocor akibat kelalaian keamanan dasar, tanpa kendali atas waktu dan cara informasi itu dipublikasikan.
Pada Selasa lalu, kode sumber dari Claude Code, asisten AI coding populer Anthropic, ditemukan dalam basis data yang dapat diakses publik. Di dalamnya, selain detail tentang cara Claude Code menangani permintaan API dan token, terdapat pula rincian fitur yang belum diumumkan oleh Anthropic. Itu mencakup hewan peliharaan virtual bergaya “Tamagotchi”, seperti dilaporkan Gizmodo. Juga terdapat detail tentang versi agen AI yang selalu aktif, menurut laporan dari The Information.
Dinamai Kairos, agen persisten yang rencananya akan beroperasi di latar belakang 24/7, secara otonom bertindak atas nama pengguna—pada dasarnya mengubah Claude menjadi sesuatu yang lebih mendekati agen AI sumber terbuka yang sangat populer, OpenClaw. Selain bertindak proaktif, Kairos rupanya memiliki fitur bernama “autoDream” yang mengkonsolidasi dan memperbarui memori internalnya semalaman.
Temuan ini cukup menyita perhatian komunitas online yang terobsesi AI, namun Anthropic tampak jauh kurang antusias menyikapi situasi ini meskipun ada sorotan. Berdasarkan laporan Wall Street Journal, kantor perusahaan AI itu sedang dalam kekacauan saat mereka berusaha menutupi apa yang terungkap dari kebocoran tersebut. Perusahaan dilaporkan telah menggunakan permintaan penghapusan hak cipta untuk menghapus lebih dari 8.000 salinan kode sumber Claude Code yang telah dipublikasikan dan di-*fork* terus-menerus di GitHub.
Anthropic juga tampaknya berusaha cepat menutupi celah keamanan. Meski perusahaan bersikeras bahwa kebocoran terbaru ini akibat kesalahan manusia dan bukan peretasan, Journal mencatat bahwa kode sumber itu memberi kemampuan bagi peretas dan aktor jahat untuk menyelidiki dan mencari celah keamanan potensial dengan tingkat akses yang baru.
Ditambah lagi, industri AI saat ini penuh dengan praktik meniru, dan kebocoran ini memberi pesaing Anthropic pandangan lebih jelas tentang operasi Claude Code, memudahkan mereka meniru beberapa fungsionalitasnya tanpa perlu merekayasa balik kode dasarnya. Model pelatihan dan *weights* Anthropic masih tetap milik mereka, jadi rahasia utamanya masih terkunci, namun publikasi blueprints-nya membuka kemungkinan pesaing mencoba lebih dulu meluncurkan fitur serupa.
Ada yang mengusulkan bahwa serangkaian kebocoran dari Anthropic belakangan ini—bulan lalu, rencana perusahaan untuk model baru bernama Mythos ditemukan dalam basis data yang dapat diakses publik—bisa jadi bagian dari strategi tertentu. Anthropic dilaporkan mempertimbangkan penawaran umum perdana pada akhir tahun ini, dan mengungkap rencana produk bisa menambah minat calon investor. Namun kepanikan yang terlihat dari Anthropic pasca-kebocoran terakhir ini mengisyaratkan bahwa perusahaan lebih memilih informasi ini tidak menjadi publik. Setidaknya, belum saatnya.