Samuel Boivin/NurPhoto via Getty Images
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
**Intisari ZDNET**
* OpenAI meluncurkan inisiatif untuk melindungi model AI dari penyalahgunaan.
* Kemampuan siber AI yang dinilai melalui tantangan *capture-the-flag* meningkat dalam empat bulan.
* Kerangka Kerja Kesiapsiagaan OpenAI dapat membantu melacak risiko keamanan model AI.
OpenAI memperingatkan bahwa evolusi kemampuan siber dalam model artificial intelligence (AI) yang pesat dapat menghasilkan tingkat risiko “tinggi” bagi industri keamanan siber secara keseluruhan. Oleh karena itu, tindakan diambil sekarang untuk membantu para pihak bertahan.
Seiring model AI, termasuk ChatGPT, terus dikembangkan dan dirilis, suatu masalah telah muncul. Seperti halnya berbagai jenis teknologi, AI dapat digunakan untuk memberi manfaat, tetapi juga dapat disalahgunakan — dan dalam ranah keamanan siber, ini mencakup penggunaan AI sebagai senjata untuk mengotomatiskan serangan *brute-force*, menghasilkan malware atau konten phishing yang meyakinkan, serta menyempurnakan kode yang ada untuk membuat rangkaian serangan siber menjadi lebih efisien.
(Keterangan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)
Dalam beberapa bulan terakhir, aktor jahat telah memanfaatkan AI untuk menyebarkan penipuan melalui serangan *indirect prompt injection* terhadap chatbot AI dan fungsi ringkasan AI di peramban; peneliti menemukan fitur AI mengalihkan pengguna ke situs web berbahaya, asisten AI mengembangkan *backdoor* dan menyederhanakan *workflow* penjahat siber, serta para pakar keamanan telah memperingatkan untuk tidak terlalu mempercayai AI dengan data kami.
Namun, sifat ganda model AI (sebutan OpenAI) berarti bahwa AI juga dapat dimanfaatkan oleh pihak bertahan untuk menyempurnakan sistem perlindungan, mengembangkan alat identifikasi ancaman, berpotensi melatih spesialis manusia, serta menangani tugas-tugas repetitif yang memakan waktu seperti *alert triage*, yang membebaskan waktu staf keamanan siber untuk proyek yang lebih bernilai.
Lanskap Saat Ini
Menurut OpenAI, kemampuan sistem AI berkembang dengan laju yang sangat cepat.
Misalnya, tantangan *capture-the-flag* (CTF), yang secara tradisional digunakan untuk menguji kemampuan keamanan siber di lingkungan uji dan bertujuan menemukan “bendera” tersembunyi, kini digunakan untuk menilai kemampuan siber model AI. OpenAI menyatakan tingkat keberhasilannya meningkat dari 27% pada GPT‑5 di Agustus 2025 menjadi 76% pada GPT‑5.1-Codex-Max di November 2025 — peningkatan signifikan dalam periode hanya empat bulan.
Pencipta ChatGPT mengatakan mereka memperkirakan model AI akan terus mengikuti trajektori ini, yang akan memberi mereka tingkat kemampuan siber yang “tinggi”. OpenAI menyatakan klasifikasi ini berarti model “dapat mengembangkan *zero-day remote exploits* yang berfungsi terhadap sistem yang dipertahankan dengan baik, atau secara signifikan membantu operasi intrusi perusahaan atau industri yang kompleks dan terselubung yang bertujuan untuk efek di dunia nyata.”
Namun, mengelola dan menilai apakah kemampuan AI akan berbahaya atau bermanfaat bukanlah tugas sederhana — namun hal itulah yang ingin ditangani OpenAI dengan inisiatif termasuk Kerangka Kerja Kesiapsiagaan (.PDF).
Kerangka Kerja Kesiapsiagaan OpenAI
Kerangka Kerja Kesiapsiagaan, yang terakhir diperbarui April 2025, menguraikan pendekatan OpenAI untuk menyeimbangkan pertahanan dan risiko AI. Meski bukan hal baru, kerangka kerja ini memberikan struktur dan panduan bagi organisasi untuk diikuti — termasuk di mana mereka berinvestasi dalam pertahanan ancaman.
Tiga kategori risiko, terutama yang dapat mengarah pada “bahaya parah”, saat ini menjadi fokus utama. Kategori-kategori tersebut adalah:
* **Kemampuan Biologis dan Kimia:** Keseimbangan antara penemuan medis dan biologis baru yang bermanfaat dengan yang dapat mengarah pada pengembangan senjata biologis atau kimia.
* **Kemampuan Keamanan Siber:** Bagaimana AI dapat membantu pihak bertahan melindungi sistem yang rentan, sementara juga menciptakan *attack surface* dan alat berbahaya baru.
* **Kemampuan Peningkatan Diri AI:** Bagaimana AI dapat meningkatkan kemampuannya sendiri secara bermanfaat — atau menciptakan tantangan kendali yang harus kita hadapi.
Kategori prioritas saat ini tampaknya adalah keamanan siber, atau setidaknya yang paling banyak dipublikasikan. Bagaimanapun, tujuan kerangka kerja ini adalah untuk mengidentifikasi faktor risiko dan mempertahankan model ancaman dengan ambang batas terukur yang menunjukkan kapan model AI dapat menyebabkan bahaya parah.
**Juga:** Seberapa baik ChatGPT mengenal saya? *Prompt* sederhana ini mengungkap banyak hal — cobalah sendiri
“Kami tidak akan menerapkan model-model yang sangat cakap ini sampai kami membangun pengaman yang cukup untuk meminimalkan risiko bahaya parah yang terkait,” ujar OpenAI dalam manifes kerangka kerjanya. “Kerangka Kerja ini memaparkan jenis pengaman yang kami perkirakan akan dibutuhkan, dan bagaimana kami akan mengonfirmasi secara internal serta menunjukkan secara eksternal bahwa pengaman tersebut sudah memadai.”
Langkah Keamanan Terbaru OpenAI
OpenAI menyatakan mereka berinvestasi besar-besaran untuk memperkuat modelnya terhadap penyalahgunaan, sekaligus membuatnya lebih berguna bagi pihak bertahan. Model sedang dikeraskan, program intelijen ancaman dan risiko dari dalam yang khusus telah diluncurkan, serta sistemnya dilatih untuk mendeteksi dan menolak permintaan berbahaya. (Ini sendiri merupakan tantangan, mengingat aktor ancaman dapat bertindak dan memberikan *prompt* sebagai pihak bertahan untuk mencoba menghasilkan keluaran yang nantinya digunakan untuk aktivitas kriminal.)
“Tujuan kami adalah agar model dan produk kami memberikan keunggulan signifikan bagi pihak bertahan, yang sering kali kalah jumlah dan kekurangan sumber daya,” kata OpenAI. “Ketika aktivitas tampak tidak aman, kami dapat memblokir keluaran, mengarahkan *prompt* ke model yang lebih aman atau kurang cakap, atau mengeskalasi untuk penegakan.”
Organisasi ini juga bekerja dengan penyedia Tim Merah untuk mengevaluasi dan meningkatkan tindakan pengamannya, dan karena Tim Merah bertindak ofensif, diharapkan mereka dapat menemukan kelemahan pertahanan untuk diperbaiki — sebelum penjahat siber melakukannya.
**Juga:** Trik baru AI yang menakutkan: Melakukan serangan siber, bukan hanya membantu
OpenAI bersiap meluncurkan “program akses tepercaya” yang memberikan sebagian pengguna atau mitra akses untuk menguji model dengan “kemampuan yang ditingkatkan” terkait pertahanan siber, namun akan dikontrol ketat.
“Kami masih mengeksplorasi batas yang tepat mengenai kemampuan mana yang dapat kami berikan akses luas dan mana yang memerlukan pembatasan berjenjang, yang mungkin memengaruhi desain program ini di masa depan,” catat perusahaan tersebut. “Kami berharap program akses tepercaya ini menjadi batu penjuru menuju ekosistem yang tangguh.”
Lebih lanjut, OpenAI telah memindahkan Aardvark, sebuah agen peneliti keamanan, ke dalam *beta* privat. Ini kemungkinan akan menarik minat peneliti keamanan siber, karena tujuan sistem ini adalah untuk memindai *codebase* mencari kerentanan dan memberikan panduan perbaikan. Menurut OpenAI, Aardvark telah mengidentifikasi CVE “baru” dalam perangkat lunak sumber terbuka.
Akhirnya, kelompok penasihat kolaboratif baru akan dibentuk dalam waktu dekat. Dijuluki Dewan Risiko *Frontier*, kelompok ini akan mencakup praktisi keamanan dan mitra yang awalnya berfokus pada implikasi keamanan siber dari AI serta praktik dan rekomendasi terkait, namun dewan ini juga pada akhirnya akan diperluas untuk mencakup kategori lain yang diuraikan dalam Kerangka Kerja Kesiapsiagaan OpenAI di masa depan.
Apa yang Dapat Kita Harapkan dalam Jangka Panjang?
Kita harus memperlakukan AI dengan hati-hati, termasuk menerapkan AI dan LLM tidak hanya dalam kehidupan pribadi, tetapi juga membatasi paparan risiko keamanan berbasis AI dalam bisnis. Misalnya, firma penelitian Gartner baru-baru ini memperingatkan organisasi untuk menghindari atau memblokir peramban AI sepenuhnya karena kekhawatiran keamanan, termasuk serangan *prompt injection* dan paparan data.
Kita perlu ingat bahwa AI adalah alat, meskipun alat baru dan menarik. Semua teknologi baru datang dengan risiko — sebagaimana jelas diketahui OpenAI, mengingat fokusnya pada tantangan keamanan siber yang terkait dengan apa yang telah menjadi chatbot AI paling populer di dunia — sehingga setiap penerapannya harus diperlakukan sama seperti solusi teknologi baru lainnya: dengan penilaian risikonya, di samping potensi imbalannya.