Perusahaan AI ternama, Anthropic, sedang menghadapi kritik dari banyak pengguna setianya. Mereka merasa performa model AI Claude milik Anthropic jadi menurun.
Masalah ini membuat perusahaan—yang baru saja dinilai senilai $380 miliar dan dikabarkan akan IPO—berusaha keras menanggapi keluhan pengguna. Banyak yang berspekulasi soal kemampuan mereka melayani pelanggan baru.
Banyak pengembang dan pengguna berat melaporkan bahwa model Claude memang menjadi kurang bagus akhir-akhir ini. Modelnya sering tidak mengikuti instruksi, mencari jalur pintas yang terkadang tidak sesuai, dan membuat lebih banyak kesalahan dalam tugas rumit.
Keluhan ini diduga terkait perubahan yang diam-diam dilakukan Anthropic pada cara kerja Claude. Mereka mengurangi tingkat “usaha” default model untuk menghemat jumlah token (unit data) yang diproses untuk setiap permintaan.
Semakin banyak token yang diproses, semakin besar daya komputasi yang dipakai. Ada spekulasi luas bahwa Anthropic, yang mengumumkan lebih sedikit kesepakatan miliaran dolar untuk kapasitas data center dibanding pesaingnya, mungkin kekurangan sumber daya komputasi. Apalagi penggunaan produknya melonjak beberapa bulan terakhir.
Ketidakpuasan pengguna dengan penurunan performa Claude dan kemarahan karena kurang transparannya Anthropic bisa mengganggu pertumbuhan perusahaan yang sangat cepat ini. Padahal mereka sedang berusaha menarik investor untuk IPO. Klaim bahwa Anthropic tidak jujur tentang perubahan pada Claude atau bahwa perubahan itu bisa menaikkan biaya penggunaannya sangat berbahaya bagi merek mereka. Sebab, Anthropic selalu membangun reputasi sebagai perusahaan AI yang lebih transparan dan peduli pada kepentingan pengguna.
Anthropic menolak menjawab pertanyaan spesifik Fortune tentang keluhan pengguna Claude. Boris Cherny, eksekutif Anthropic yang memimpin produk Claude Code, menanggapi keluhan di internet. Dia bilang Anthropic mengurangi “usaha” default Claude ke level “medium” karena ada umpan balik bahwa Claude sebelumnya menggunakan terlalu banyak token per tugas. Tapi banyak user komplain bahwa perubahan ini tidak diinformasikan dengan jelas.
Situasi ini memicu banyak spekulasi dan tuduhan—bahkan dari pesaing—bahwa perusahaan sengaja menurunkan performa karena kurangnya kapasitas komputasi.
Di seluruh industri, perusahaan AI menghadapi kenaikan harga GPU, kesulitan perluasan data center, dan pertimbangan sulit memprioritaskan produk. Permintaan untuk sistem AI “agen” tumbuh lebih cepat dari infrastruktur yang tersedia. Juru bicara Anthropic pernah bilang secara publik bahwa lab AI mereka tidak menurunkan kualitas model untuk menyesuaikan permintaan. Tapi ada alasan untuk percaya bahwa perusahaan ini menghadapi kendala yang lebih berat daripada beberapa pesaingnya.
Anthropic mengalami beberapa gangguan layanan baru-baru ini seiring peningkatan penggunaan. Mereka juga menerapkan batas penggunaan lebih ketat di jam sibuk, yang dikeluhkan beberapa pengguna. Dalam memo internal yang dilaporkan CNBC, kepala pendapatan OpenAI mengklaim Anthropic melakukan “kesalahan strategis” karena tidak mengamankan cukup kapasitas komputasi, dan beroperasi dalam skala “jauh lebih kecil” daripada pesaing. (Anthropic menolak menjawab pertanyaan CNBC tentang klaim ini.)
Sementara itu, Anthropic juga mengumumkan minggu lalu bahwa mereka telah melatih model baru bernama Mythos yang belum dirilis. Model ini jauh lebih canggih dari model Opus, tetapi juga lebih besar dan lebih mahal dijalankan, artinya butuh lebih banyak kapasitas komputasi. Anthropic menekankan bahwa model ini belum dirilis untuk publik karena alasan keamanan. Tapi beberapa orang mempertanyakan apakah Anthropic punya cukup kapasitas komputasi untuk meluncurkan Mythos secara luas.
Korban dari kesuksesan sendiri
Tekanan pada Anthropic menunjukkan betapa cepatnya pasar AI berubah dan risikonya besar. Baru minggu lalu, Anthropic mengejutkan industri dengan mengumumkan bahwa pendapatan tahunan berulang (ARR) mereka sekarang $30 miliar, naik dari $9 miliar di akhir 2025. OpenAI bilang bulan lalu mereka menghasilkan $2 miliar per bulan, atau $24 miliar per tahun. Tapi cara melapor pendapatan kedua perusahaan berbeda, jadi sulit untuk dibandingkan secara langsung.
Anthropic baru-baru ini mendapat banjir pengguna baru, pertama karena popularitas alat coding AI mereka, Claude Code, dan kemudian karena dukungan konsumen setelah perseteruan mereka dengan Departemen Pertahanan AS. Banyak pengguna beralih ke Claude dari pesaing seperti ChatGPT OpenAI setelah pemerintahan Trump menetapkan Anthropic sebagai “risiko rantai pasok”. Anthropic menyatakan sengketa itu muncul karena mereka bersikukuh agar pemerintah AS setuju dalam kontrak untuk tidak menggunakan teknologinya dalam senjata otonom mematikan atau untuk pengawasan massal warga Amerika.
Dalam beberapa tahun terakhir, Anthropic telah membuat kemajuan pesat dalam persaingan AI. Mereka muncul sebagai pemimpin di AI untuk perusahaan dan membangun hubungan baik yang kuat di kalangan pengembang dan pengguna korporat. Tapi jika kemarahan soal masalah performa Claude terus berlanjut, hubungan baik itu bisa terkikis dan perusahaan bisa terjungkal di momen yang kritis.
Menanggapi beberapa kontroversi terkait masalah performa Claude baru-baru ini, Cherny, pimpinan Claude Code, mengatakan bahwa Claude Opus 4.6—model andalan Anthropic—telah memperkenalkan “pemikiran adaptif” pada awal Februari. Fitur ini memungkinkan model memutuskan seberapa banyak penalaran yang akan diterapkan pada suatu tugas, daripada menggunakan anggaran yang tetap.
Di awal Maret, Anthropic juga menurunkan pengaturan default ke level “usaha sedang”, kata Cherny. Pengguna Claude Code bisa mengubah level usaha tool-nya secara manual, tapi pengguna yang bayar untuk versi Pro dari Cowork atau versi desktop Claude tidak bisa ubah default saat ini.
Untuk atasi beberapa masalah pengguna, Cherny bilang perusahaan akan uji coba “mengatur default untuk pengguna Teams dan Enterprise ke usaha tinggi, agar dapat manfaatkan pemikiran yang lebih panjang meski dengan biaya token & latensi tambahan” ke depannya.
Dia juga menampik spekulasi bahwa modelnya sengaja dilemahkan dan keluhan dari pengguna bahwa perubahan ini diluncurkan tanpa transparansi. Dia klaim perubahan ini dibuat sebagai respons terhadap umpan balik pengguna dan sudah diberitahu ke pengguna lewat pop-up di antarmuka Claude Code.
### ‘Tidak bisa dipakai untuk tugas rekayasa kompleks’
Sebagian besar keluhan pengguna berpusat pada Claude Code, tool coding berbasis AI dari Anthropic, yang telah jadi salah satu produk paling populer dan cepat tumbuh perusahaan itu.
Dirilis awal 2025, Claude Code beroperasi sebagai agen baris perintah yang bisa baca, tulis, dan eksekusi kode secara mandiri di lingkungan pengembang. Sejak peluncurannya, tool ini banyak dipakai oleh pengembang individu dan tim rekayasa perusahaan besar yang mengandalkannya untuk tugas coding kompleks dan multi-langkah.
Perubahan performa Claude Code baru-baru ini jadi perhatian luas di media sosial berkat analisis GitHub yang tampaknya dari Stella Laurenzo, direktur senior AI di AMD. Dalam analisis yang banyak dibagikan, Laurenzo bilang perubahan ini telah membuat Claude “tidak bisa dipakai untuk tugas rekayasa kompleks.”
Dalam analisisnya, dia menemukan bahwa dari akhir Februari hingga awal Maret, Claude berpindah dari pendekatan “riset-dulu” — membaca banyak file dan mengumpulkan konteks sebelum membuat perubahan — ke gaya “edit-dulu” yang lebih langsung. Modelnya membaca lebih sedikit konteks sebelum bertindak, membuat lebih banyak kesalahan, dan membutuhkan intervensi pengguna yang jauh lebih banyak, menurut analisis itu. Analisis itu juga menunjukkan peningkatan perilaku seperti berhenti terlalu cepat, menghindari tanggung jawab, atau meminta izin yang tidak perlu, yang dikaitkan dengan penurunan kedalaman “berpikir” dalam periode yang sama.
“Claude telah mengalami kemunduran sampai titik [di mana] dia tidak bisa dipercaya untuk melakukan rekayasa kompleks,” tulisnya.
Dalam komentar menanggapi analisis tersebut, Cherny dari Anthropic mengatakan analisisnya mungkin salah membaca setidaknya sebagian data. Dia klaim bahwa penalaran model tidak dikurangi, tetapi Anthropic telah membuat perubahan sehingga “jejak penalaran” lengkap model tidak lagi terlihat oleh pengguna.
Tapi Laurenzo bukan satu-satunya yang mengalami masalah dengan tool ini.
“Saya punya sesi yang sangat frustrasi dengan Claude Code dua minggu terakhir,” tulis Dimitris Papailiopoulos, manajer riset utama di Microsoft, di X. “Saya atur usahanya ke maksimal, tapi dia sangat ceroboh, abaikan instruksi, dan ulangi kesalahan yang sama.”