Model Terbaru Anthropic Unggul dalam Mendeteksi Kerentanan Keamanan, Namun Picu Risiko Baru di Dunia Siber

Model AI Frontier sekarang sudah bukan cuma bantu insinyur nulis kode lebih cepat atau otomatisasi tugas rutin. Mereka makin mampu menemukan kesalahan mereka sendiri.

Anthropic bilang model terbarunya, Claude Opus 4.6, sangat jago menemukan jenis kelemahan software yang jadi dasar serangan siber besar. Menurut laporan dari Frontier Red Team perusahaan itu, saat pengujian, Opus 4.6 mengidentifikasi lebih dari 500 kerentanan zero-day yang sebelumnya tidak diketahui—cacat yang tidak diketahui oleh pembuat software, atau pihak yang bertanggung jawab memperbaikinya—di berbagai perpustakaan software open-source. Yang penting, modelnya tidak secara khusus disuruh cari kelemahan keamanan, tapi dia mendeteksi dan menandai masalahnya sendiri.

Anthropic bilang “hasilnya menunjukkan model bahasa bisa nilai tambah nyata di atas alat penemuan yang ada,” tapi mengaku kemampuan itu juga pada dasarnya “penggunaan ganda.”

Kemampuan yang sama yang bantu perusahaan temukan dan perbaiki kelemahan keamanan, bisa sama mudahnya dijadikan senjata oleh penyerang untuk temukan dan manfaatkan kerentanan sebelum pembela bisa menemukannya. Model AI yang bisa identifikasi sendiri eksploitasi zero-day di software yang banyak dipakai bisa percepat kedua sisi perlombaan senjata keamanan siber—berpotensi memberi keuntungan ke pihak yang bertindak paling cepat.

Perwakilan Anthropic tidak segera menanggapi permintaan komentar tentang risiko keamanan siber. Tapi, Logan Graham, kepala frontier red team Anthropic, bilang ke Axios bahwa perusahaan melihat keamanan siber sebagai kompetisi antara serangan dan pertahanan, dan ingin pastikan pembela dapat akses ke alat-alat ini duluan.

Untuk kelola sebagian risikonya, Anthropic sedang pasang sistem deteksi baru yang pantau aktivitas internal Claude saat dia hasilkan respons, pakai apa yang perusahaan sebut “probe” untuk tandai penyalahgunaan potensial secara waktu nyata. Perusahaan bilang mereka juga memperluas kemampuan penegakannya, termasuk kemampuan untuk blokir lalu lintas yang teridentifikasi sebagai berbahaya. Anthropic akui pendekatan ini akan buat gesekan bagi peneliti keamanan yang sah dan pekerjaan defensif, dan telah berkomitmen untuk kolaborasi dengan komunitas keamanan untuk atasi tantangan itu. Pengamanannya, kata perusahaan, mewakili “langkah maju yang berarti” dalam mendeteksi dan menanggapi penyalahgunaan dengan cepat, walau pekerjaannya masih berlanjut.

MEMBACA  Langkah Besar Selanjutnya dari Pfizer

OpenAI, sebagai perbandingan, ambil pendekatan lebih hati-hati dengan model coding barunya, GPT-5.3-Codex, yang juga dirilis Kamis ini. Perusahaan tekankan bahwa walau model itu lebih baik dalam performa coding, risiko keamanan siber serius datang bersamaan dengan keuntungan itu. CEO OpenAI Sam Altman bilang dalam post di X bahwa GPT-5.3-Codex adalah model pertama yang dinilai “tinggi” untuk risiko keamanan siber di bawah kerangka kesiapan internal perusahaan.

Hasilnya, OpenAI luncurkan GPT-5.3-Codex dengan kontrol lebih ketat. Walau model tersedia untuk pengguna ChatGPT berbayar untuk tugas pengembangan sehari-hari, perusahaan tunda akses API penuh dan batasi kasus penggunaan berisiko tinggi yang bisa memungkinkan otomatisasi dalam skala besar. Aplikasi yang lebih sensitif dijaga dengan pengaman tambahan, termasuk program akses-terpercaya untuk profesional keamanan yang telah diperiksa. OpenAI bilang di blog post yang menyertai peluncuran bahwa mereka belum punya “bukti pasti” modelnya bisa otomatisasi penuh serangan siber tapi ambil pendekatan kehati-hatian, gunakan apa yang mereka gambarkan sebagai tumpukan keamanan siber paling komprehensif mereka hingga saat ini, termasuk pemantauan yang ditingkatkan, pelatihan keamanan, dan mekanisme penegakan berdasarkan intelijen ancaman.

Cerita ini awalnya ditampilkan di Fortune.com

Tinggalkan komentar