Anthropic menuduh tiga perusahaan kecerdasan artifisial (AI) asal Tiongkok melakukan “kampanye berskala industri” untuk “mengekstrak” teknologinya secara ilegal melalui serangan distilasi. Anthropic menyatakan perusahaan-perusahaan ini membuat 24.000 akun palsu untuk menyembunyikan upaya tersebut.
Dalam sebuah postingan blog yang merinci serangan tersebut, Anthropic menyebut nama tiga firma AI, termasuk DeepSeek, pengembang model AI DeepSeek yang populer. Anthropic secara eksplisit membingkai serangan ini sebagai persoalan keamanan nasional.
“Kami telah mengidentifikasi kampanye berskala industri oleh tiga laboratorium AI—DeepSeek, Moonshot, dan MiniMax—untuk mengekstrak kemampuan Claude secara ilegal guna meningkatkan model mereka sendiri,” bunyi postingan blog itu. “Laboratorium ini menghasilkan lebih dari 16 juta pertukaran dengan Claude melalui sekitar 24.000 akun palsu, yang melanggar ketentuan layanan dan pembatasan akses regional kami.”
Tweet ini saat ini tidak tersedia. Mungkin sedang dimuat atau telah dihapus.
Pada Januari lalu, OpenAI juga menuduh DeepSeek terlibat dalam serangan distilasi, yang pada dasarnya mencuri teknologinya.
Pada saat itu, banyak orang bereaksi bukannya dengan simpati, melainkan dengan ejekan, mengingat OpenAI dan perusahaan AI lain telah mengklaim memiliki hak mutlak untuk melatih model mereka dengan karya berhak cipta tanpa izin atau pembayaran. Biasanya, pendukung industri AI berargumen bahwa mereka tidak punya pilihan selain melatih model dengan materi berhak cipta karena pesaing dari Tiongkok toh pasti akan mengabaikan hukum hak cipta.
“Anda tidak bisa diharapkan memiliki program AI yang sukses jika setiap artikel, buku, atau materi lain yang Anda baca atau pelajari, harus Anda bayar,” ujar Presiden Donald Trump dalam sebuah acara AI pada Juli 2025. “Ketika seseorang membaca buku atau artikel, Anda mendapatkan pengetahuan yang berharga. Itu tidak berarti Anda melanggar hukum hak cipta atau harus bernegosiasi dengan setiap penyedia konten.” Ia menambahkan, “Tiongkok tidak melakukannya.”
LIHAT JUGA:
Anthropic merilis Claude Sonnet 4.6: Performa benchmark, cara mencobanya
Hal ini menempatkan perusahaan AI pada posisi yang canggung: mengklaim kekayaan intelektual mereka tidak boleh digunakan untuk pelatihan model, sementara mereka sendiri melakukan perilaku serupa.
Mashable Light Speed
Apa itu serangan distilasi?
Distilasi adalah teknik pelatihan yang umum untuk model bahasa besar (LLM); namun, teknik ini juga dapat digunakan untuk merekayasa-balik beberapa aspek teknologi tersebut. Dalam distilasi, peneliti AI menjalankan variasi perintah yang sama berulang kali untuk melihat respons suatu model.
“Distilasi adalah metode pelatihan yang sah dan luas digunakan. Misalnya, laboratorium AI terdepan rutin mendistilasi model mereka sendiri untuk menciptakan versi yang lebih kecil dan murah bagi pelanggan. Namun, distilasi juga dapat digunakan untuk tujuan ilegal: pesaing dapat menggunakannya untuk memperoleh kemampuan canggih dari lab lain dalam waktu dan biaya yang jauh lebih sedikit dibandingkan mengembangkannya secara mandiri.”
Perusahaan Tiongkok dikenal sering mengabaikan perjanjian kekayaan intelektual dan hukum hak cipta secara terang-terangan, serta melakukan rekayasa-balik teknologi dari perusahaan Barat. Namun, meskipun Anthropic menyatakan serangan distilasi yang terungkap melanggar ketentuan layanannya, belum jelas apakah hal itu melanggar hukum internasional, atau apa upaya pemulihan yang dapat dilakukan Anthropic selain menangguhkan akun pelanggar.
Untuk mencegah serangan seperti ini, Anthropic menyerukan kerja sama antara perusahaan AI, agensi pemerintah, dan pemangku kepentingan lainnya.
Perusahaan AI seperti Anthropic, xAI, Meta, dan OpenAI sedang berada di tengah salah satu lonjakan pengeluaran terbesar yang pernah ada, dengan puluhan miliar dolar diinvestasikan ke infrastruktur AI, pusat data, serta penelitian dan pengembangan. Jika perusahaan AI asing saingan dapat menciptakan ulang teknologi LLM mereka dengan murah menggunakan distilasi, jelas mereka akan memiliki keunggulan dibanding rival AS.
“Kampanye-kampanye ini semakin intens dan canggih,” tulis postingan blog tersebut. “Kesempatan untuk bertindak sangat sempit, dan ancamannya melampaui perusahaan atau wilayah mana pun. Mengatasinya memerlukan tindakan cepat dan terkoordinasi di antara pelaku industri, pembuat kebijakan, dan komunitas AI global.”
Mashable telah menghubungi Anthropic untuk mengajukan pertanyaan mengenai serangan distilasi ini, dan kami akan memperbarui artikel ini jika menerima tanggapan.
Keterangan: Ziff Davis, perusahaan induk Mashable, pada April 2025 mengajukan gugatan terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.