Akankah AI Meniadakan Keamanan Siber atau Hanya Khayalan Lembah Silikon Lagi?

ValeryBrozhinsky/iStock/Getty Images Plus

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


**Intisari ZDNET**
Alat dari Anthropic, OpenAI, dan Google dapat mengotomatisasi debug kode. Namun, keamanan siber merupakan masalah yang terlalu kompleks untuk diselesaikan oleh alat-alat ini. Kontribusi terbesar AI mungkin justru untuk mengurangi cacat perangkat lunak yang sebenarnya dapat dihindari.


Bisakah Anda mempercayai perusahaan-perusahaan yang membangun AI untuk membuat teknologi ini aman digunakan dunia?

Itu adalah salah satu pertanyaan paling mendesak yang Anda hadapi tahun ini sebagai pengguna AI, dan ini bukanlah pertanyaan akademis semata. Seiring meroketnya penerapan teknologi ini di dunia nyata, jenis risiko baru bermunculan dengan dampak yang berpotensi katastropik, sehingga menuntut solusi-solusi segar.

**Baca juga:** 10 cara AI dapat menimbulkan kerusakan tak terduga di tahun 2026

Datang sebagai “penyelamat” adalah para pembuat utama model AI: OpenAI, Anthropic, dan Google. Ketiganya menawarkan alat yang dapat meredam kegagalan dan pelanggaran keamanan pada LLM serta program-program agen yang dibangun di atasnya.

(Keterangan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)

Pengamat Wall Street berpikir ada kemungkinan nyata bahwa alat-alat perusahaan AI akan menggusur penawaran keamanan siber tradisional dari perusahaan seperti Palo Alto Networks, Zscaler, dan Check Point Software. Bidang terkait yang disebut observabilitas juga terancam, termasuk perusahaan seperti Dynatrace yang menjual alat untuk mendeteksi kegagalan sistem.

**Baca juga:** Mengapa backup terenkripsi bisa gagal di era ransomware yang digerakkan AI

Gagasan bahwa sebagian besar atau seluruh masalah perangkat lunak dunia akan diselesaikan oleh pembuat perangkat lunak di sumbernya, sebelum program-program itu dirilis, memang menggoda. Tidak akan ada lagi serangan penolakan layanan, ransomware, atau serangan rantai pasok jika semuanya sudah benar sejak awal.

Hanya saja, kenyataannya tidak sesederhana itu.

Tantangannya lebih besar daripada capaian potensial dari alat atau pendekatan apa pun. Risiko perangkat lunak, termasuk model dan agen AI, terlalu luas cakupannya untuk dapat diselesaikan sendiri oleh perusahaan-perusahaan tersebut.

Diperlukan semua alat keamanan dan observabilitas tradisional untuk memperbaiki masalah yang mengganggu AI. Diperlukan pula bentuk-bentuk baru dari rekayasa data. Bahkan, solusinya mungkin memerlukan desain ulang fundamental dari program AI itu sendiri untuk menangani akar penyebab risiko.

Mungkinkah AI Menjadikan Keamanan Siber Usang?

Anthropic

Saham perusahaan keamanan siber sempat terguncang baru-baru ini ketika Anthropic meluncurkan Claude Code Security, ekstensi dari alat populernya Claude Code yang dapat mengotomatisasi sebagian penulisan kode.

Anthropic menyatakan Claude Code Security akan memungkinkan “tim untuk menemukan dan memperbaiki masalah keamanan yang sering terlewatkan oleh metode tradisional,” dengan dashboard yang menampilkan potensi masalah dan mengusulkan perbaikan.

MEMBACA  Hukum Kurban Secara Patungan: Inilah Penjelasan Dalilnya (Sesuai permintaan, teks tidak mengulang atau menanggapi masukan sebelumnya, hanya memberikan terjemahan dalam bahasa Indonesia.)

**Baca juga:** Ancaman AI akan memburuk: 6 cara untuk menyamai kegigihan lawan digital Anda

Tujuannya adalah agar seorang analis manusia meninjau temuan dan usulan tersebut untuk mengambil keputusan final. Claude Code Security saat ini “tersedia dalam pratinjau penelitian terbatas.”

Sesi terminal dengan Claude Code Security milik Anthropic.

Anthropic

Hasil dari lebih dari setahun penelitian keamanan siber, Claude Code Security tidak hanya mengawasi kode yang dibuat dengan Claude Code. Anthropic telah menggunakan alat ini untuk menemukan ratusan kerentanan “yang tidak terdeteksi selama beberapa dekade, meskipun telah ditinjau oleh para ahli bertahun-tahun.”

Anthropic

Demikian pula, OpenAI pada Oktober lalu meluncurkan Aardvark, yang disebut perusahaan sebagai “peneliti keamanan agenik yang didukung GPT‑5.” Saat ini masih dalam beta privat, Aardvark melakukan pemindaian kode otomatis serupa dengan yang dijanjikan Anthropic. “Aardvark bekerja dengan memantau commit dan perubahan pada basis kode, mengidentifikasi kerentanan, cara mengeksploitasinya, dan mengusulkan perbaikan,” ujar OpenAI.

Cara kerja Aardvark milik OpenAI.

Anthropic

Tiga minggu sebelum peluncuran Aardvark, unit penelitian DeepMind milik Google memperkenalkan CodeMender, yang disebut perusahaan sebagai “agen bertenaga AI baru yang meningkatkan keamanan kode secara otomatis.”

Seperti alat Anthropic, CodeMender dimaksudkan bukan hanya untuk mengamankan kreasi Google, tetapi menjadi alat keamanan yang luas. Dalam enam bulan pengembangan, DeepMind mencatat, CodeMender telah “mengirimkan 72 perbaikan keamanan ke proyek sumber terbuka, termasuk beberapa yang sebesar 4,5 juta baris kode.”

Tidak seperti Anthropic dan OpenAI, DeepMind menekankan tidak hanya pada pengusulan perbaikan, tetapi juga penerapan perbaikan ke kode secara otomatis. Sejauh ini, program ini hanya digunakan oleh peneliti DeepMind. DeepMind menegaskan bahwa “Saat ini, semua patch yang dihasilkan CodeMender ditinjau oleh peneliti manusia sebelum dikirimkan ke upstream.”

Cara kerja CodeMender dari Google DeepMind.

DeepMind

Ketiga penawaran tersebut, menurut sebagian besar pengamat, secara langsung mengancam peran alat dalam kategori seperti ‘AppSec’, ‘Analisis Komposisi Perangkat Lunak’, dan ‘Pengujian Keamanan Aplikasi Statis’. Kemampuan itu mencakup perusahaan dan alat seperti Snyk, Jfrog, Mend, GitHub Dependabot, Semgrep, Sonatype, Checkmarx, dan Veracode.

Perkenalan Claude Code Security “memicu kelemahan berulang di seluruh nama perangkat lunak pertumbuhan tinggi, terutama di observabilitas dan keamanan cloud,” tulis William Power, analis perangkat lunak di firma investasi R.W. Baird & Co.

**Baca juga:** Mengapa agen AI perusahaan bisa menjadi ancaman internal tertinggi

Masuk akal untuk berasumsi bahwa, seperti ditekankan Anthropic, OpenAI, dan DeepMind, Anda mungkin akan ingin bekerja dengan alat yang berasal dari vendor yang sama yang membangun kode yang memperbanyak perangkat lunak berbasis LLM yang akan semakin menggantikan aplikasi paket tradisional.

MEMBACA  Hanya Bermain Imbang dengan Laos, Shin Tae-yong Minta Maaf kepada Suporter Timnas Indonesia

Teknologi ini memiliki daya tarik tambahan karena terintegrasi ke dalam platform pengkodean perusahaan-perusahaan ini. Claude Code Security dan Aardvark sudah terintegrasi, dalam bentuk pratinjau, ke dalam alat Claude Code dan OpenAI Codex. Sementara CodeMender masih berupa proyek penelitian, jelas bahwa pada titik tertentu ia bisa menjadi bagian dari alat pengembangan AI Studio Google untuk Gemini, Imagen, dan model-model lainnya.

Masalah yang Lebih Besar dari Sekadar Satu Alat

Betapapun bermanfaatnya alat-alat tersebut nantinya, keamanan siber adalah bidang yang terlalu luas, dan masalahnya terlalu besar cakupannya serta terlalu mendalam akar penyebabnya, untuk dapat diatasi hanya dengan alat pemindaian kode agar output AI menjadi aman.

Dalam ranah pemindaian kode sumber, analisis masalah, serta pembuatan patch atau desain ulang, masalahnya lebih besar dari sekadar satu potong kode sumber. Perangkat lunak modern dikenal dalam bidang ini sebagai “artefak”, komposisi dari banyak file dari berbagai sumber. Sebuah program tertentu mencakup pustaka, kerangka kerja, dan elemen lain yang semuanya harus berjalan andal bersama-sama.

Dalam posting blog baru-baru ini, CTO dan co-founder JFrog, Yoav Landman, menjelaskan bahwa, “Kode bukan lagi produk akhir. Itu adalah langkah perantara. Output nyata — hal yang dikirimkan, diterapkan, dan dieksekusi — adalah artefak biner: Gambar kontainer. Sebuah paket. Pustaka. Rilis yang dikompilasi.”

**Baca juga:** Menerapkan AI? 5 taktik keamanan yang tidak boleh salah dilakukan bisnis Anda – dan alasannya

Dalam ranah teknologi yang lebih luas, memindai dan memperbaiki kode hanyalah sebagian kecil dari apa yang dilakukan perusahaan keamanan siber, seperti Palo Alto, Zscaler, dan Check Point, atau yang dilakukan Dynatrace, Splunk, dan Datadog dalam observabilitas.

Firewall ada pada tingkat yang lebih dasar daripada sebagai aplikasi yang mengamankan perimeter jaringan komputer. Perannya adalah untuk menghalau pelaku jahat sebelum mereka mendekati kode yang rentan. Alat keamanan titik akhir yang disebut-sebut demikian memastikan bahwa komputer host yang dikompromikan tidak menjadi landasan peluncuran serangan. Sementara itu, alat “Secure Access Service Edge” adalah perangkat lunak berbasis cloud yang mengidentifikasi dan mengautentikasi pengguna di jaringan sehingga hanya pihak yang berwenang yang berinteraksi dengan program.

Tidak satu pun dari masalah tersebut terselesaikan hanya dengan memiliki kode sumber yang lebih sedikit bug-nya. Alat seperti “Manajemen Informasi dan Acara Keamanan” (SIEM) berada di atas jaringan dan aplikasi. Alat ini memberi tahu profesional keamanan apa yang terjadi di seluruh armada komputer secara real time.

Sementara memperbaiki kode sebelum dikirimkan itu baik, SIEM melakukan hal-hal yang tidak akan pernah bisa dilakukan oleh pemindaian kode. Alat ini menunjukkan hal-hal yang berkembang yang membutuhkan perhatian mendesak karena sudah menimbulkan masalah. Jika kodenya penuh bug, itu bisa menunggu, dan mungkin memang harus menunggu. Ketika sesuatu yang berpotensi katastropik terjadi di seluruh jaringan komputer, waktu adalah esensial.

MEMBACA  Menteri mendorong pemuda untuk memanfaatkan kembali lahan pertanian terbengkalai demi keamanan pangan

**Baca juga:** AI diam-diam meracuni dirinya sendiri dan mendorong model ke arah keruntuhan – tetapi ada obatnya

Perusahaan yang menjual SIEM, seperti Palo Alto dan Zscaler, menggunakan AI untuk mempercepat pekerjaan yang dilakukan oleh profesional keamanan. Namun, perangkat lunak tidak akan menggantikan “pihak yang bertanggung jawab” ketika ada yang salah. Vendor keamanan ada karena mereka memiliki orang-orang yang mengangkat telepon di tengah malam dan bekerja melawan waktu untuk menemukan dan memperbaiki masalah yang lebih besar dari sekadar sepotong kode buruk.

Anthropic dan OpenAI umumnya tidak dikenal karena mengangkat telepon, meskipun unit Cloud Google dapat menawarkan operasi keamanannya sendiri sebagai bantuan tambahan.

AI, Sembuhkan Dirimu Sendiri

Pada tingkat yang lebih mendalam, penelitian terbaru menunjukkan bahwa garis depan AI, yaitu sistem-sistem agenik, sendiri dilanda kesalahan rekayasa dan desain yang berpotensi katastropik.

Peneliti di MIT pekan lalu menjelaskan bahwa banyak sistem agen AI yang dikomersilkan kekurangan fitur dasar seperti audit keamanan yang dipublikasikan atau cara untuk mematikan agen nakal.

**Baca juga:** Agen AI cepat, liar, dan di luar kendali, temuan studi MIT

Peneliti yang dipimpin oleh Northeastern University baru-baru ini mengungkapkan hasil upaya tim merah ekstensif di mana beberapa agen AI saling berinteroperasi, sebagian besar tanpa campur tangan manusia.

Mereka menemukan “kekacauan” yang terjadi: bot mencoba mematikan bot lain; bot yang “berbagi” kode berbahaya satu sama lain untuk memperluas “permukaan ancaman” risiko siber; dan bot yang saling memperkuat praktik keamanan yang buruk.

Satu cara untuk menghadapi kekacauan itu adalah dengan membangun set data pelatihan AI baru yang dikumpulkan dari lingkungan nyata. Perusahaan perangkat lunak dan layanan Innodata adalah salah satu vendor yang membantu raksasa AI untuk melakukannya.

“Para penyerang sangat kreatif, dan mereka datang dengan hal-hal yang belum pernah dilihat oleh model yang dilatih di lingkungan lab,” kata Jack Abuhoff, CEO Innodata, kepada ZDNET. “Apa yang Anda lakukan tentang itu? Anda memerlukan serangan adverserial berkualitas tinggi, beragam secara semantik, dan dapat diskalakan untuk menguji ketahanan agen-agen tersebut.”

**Baca juga:** Server hancur dan serangan DoS: Apa yang dapat terjadi ketika agen AI OpenClaw berinteraksi

Karena AI dan agen memiliki kesalahannya sendiri, seorang

Tinggalkan komentar