Perusahaan AI Anthropic sedang berusaha keras untuk menunjukkan bahwa mereka netral dalam politik. Ini terjadi karena pemerintahan Presiden Trump meningkatkan kampanye melawan apa yang mereka sebut “AI woke”. Anthropic sekarang berada di tengah pertarungan ideologi tentang bagaimana seharusnya model AI berbicara tentang politik.
Pada hari Kamis, Anthropic mengumumkan usaha besar-besaran untuk melatih chatbot Claude mereka agar bersikap “secara politik adil”. Mereka ingin model AI mereka memperlakukan pandangan politik yang berbeda dengan kedalaman dan kualitas analisa yang sama.
Perusahaan itu juga merilis metode baru untuk mengukur bias politik. Hasilnya menunjukkan model terbaru mereka, Claude Sonnet 4.5, lebih netral atau setara dengan pesaingnya.
Pengumuman ini muncul di tengah tekanan politik yang kuat. Bulan Juli lalu, Presiden Donald Trump menandatangani perintah eksekutif yang melarang lembaga federal menggunakan sistem AI yang dianggap mengutamakan agenda ideologi. Inisiatif keragaman dan kesetaraan disebut sebagai ancaman bagi AI yang andal.
David Sacks, pejabat AI Gedung Putih, telah menuduh Anthropic secara terbuka karena mendorong ideologi liberal dan mencoba melakukan “permainan regulasi”.
Tekanan ini tampaknya telah menggoyahkan perusahaan dari San Francisco itu. Mereka kini aktif mempromosikan usaha mereka untuk menghilangkan kesan bahwa Claude lebih condong ke kiri daripada model AI lainnya.
CEO Anthropic, Dario Amodei, bulan lalu bersikeras bahwa perusahaannya setuju dengan kebijakan anti-woke pemerintahan Trump. Dia membantah apa yang disebutnya sebagai “klaim tidak akurat yang baru-baru ini meningkat”.
Dalam pernyataannya ke CNBC, Amodei menambahkan bahwa dia yakin Anthropic, pemerintahan, dan pemimpin dari berbagai spektrum politik menginginkan hal yang sama: memastikan teknologi AI bermanfaat bagi rakyat Amerika dan Amerika Serikat memajukan serta mengamankan kepemimpinannya dalam pengembangan AI.
Usaha netralitas Anthropic melampaui bahasa pemasaran biasa. Mereka telah menulis ulang petunjuk sistem Claude untuk menghindari opini politik yang tidak diminta, tidak menggunakan retorika persuasif, memakai terminologi netral, dan mampu menjelaskan pandangan yang berlawanan.
Mereka juga melatih Claude untuk tidak mempengaruhi pengguna dalam pertanyaan politik penting, tidak menyiratkan satu ideologi lebih unggul, dan tidak mendorong pengguna untuk “menantang perspektif mereka”.
Penilaian Anthropic menemukan bahwa Claude Sonnet 4.5 mendapat skor 94% untuk “keadilan”, sebanding dengan Google Gemini 2.5 Pro dan Grok 4-nya Elon Musk, tetapi lebih tinggi daripada GPT 5 OpenAI dan Llama 4 Meta. Model itu juga jarang menolak untuk terlibat dalam argumen politik dari kedua sisi.
Anthropic, Google, OpenAI, dan Meta tidak segera menanggapi permintaan komentar dari Fortune. Sementara xAI merespons dengan jawaban otomatis: “Legacy Media Lies”.
Perusahaan-perusahaan di sektor AI—OpenAI, Google, Meta, xAI—terpaksa menavigasi aturan pengadaan baru pemerintahan Trump dan lingkungan politik di mana keluhan tentang “bias” bisa menjadi risiko bisnis yang serius.
Tapi Anthropic khususnya menghadapi serangan yang lebih keras. Ini sebagian karena peringatan mereka di masa lalu tentang keselamatan AI, basis investor mereka yang condong ke Partai Demokrat, dan keputusan mereka untuk membatasi beberapa penggunaan AI untuk penegak hukum.
“Kami akan terus jujur dan terus terang, dan akan memperjuangkan kebijakan yang kami yakini benar,” tulis Amodei dalam sebuah postingan blog. “Taruhan dari teknologi ini terlalu besar bagi kami untuk berbuat sebaliknya.”