OpenAI telah meluncurkan GPT-5.4-Cyber, model AI baru yang mungkin bersedia menerima perintah (*prompt*) yang tampak jahat demi tujuan keamanan siber. Untungnya, sang pengembang ChatGPT tidak akan membiarkan sembarang orang mencoba model AI yang lebih longgar dan bebas ini.
DIREKOMENDASIKAN JUGA:
Apakah Claude Mythos dari Anthropic sekadar aksi publisitas, atau ancaman keamanan nyata? Ini kata para ahli.
Diumumkan melalui postingan blog pada Selasa, GPT-5.4-Cyber adalah varian dari model bahasa besar GPT-5.4 OpenAI yang tersedia untuk publik. Menurut OpenAI, model AI andalan (*frontier*) mereka seperti GPT-5.4 dilengkapi pengaman terhadap penggunaan yang jelas-jahat, sehingga menolak permintaan berbahaya seperti mencuri kredensial atau mencari celah dalam kode. Sebaliknya, model baru GPT-5.4-Cyber ini dilatih untuk lebih toleran dan berpotensi menerima perintah semacam itu.
Menyebut GPT-5.4-Cyber sebagai “cyber-permissive,” OpenAI menyatakan perubahan ini dimaksudkan agar AI dapat digunakan untuk tindakan pertahanan siber, seperti membantu peneliti menemukan kerentanan yang perlu ditangani.
“Kami ingin memberdayakan para *defender* dengan memberikan akses luas kepada kemampuan andalan, termasuk model yang dirancang khusus untuk keamanan siber,” tulis OpenAI. “Ini adalah versi GPT‑5.4 yang menurunkan batasan penolakan untuk pekerjaan siber yang sah dan memungkinkan kemampuan baru untuk alur kerja pertahanan tingkat lanjut.”
Mengingat potensi bahaya dari pelemahan pengaman GPT-5.4-Cyber, tidak semua orang akan bisa langsung mencoba mendorong batas etika-nya yang bisa dibilang fleksibel lebih jauh lagi. OpenAI menyatakan mereka memulai dengan “penerapan terbatas dan bertahap kepada vendor keamanan, organisasi, dan peneliti yang telah diverifikasi.” Dengan demikian, hanya anggota program Trusted Access for Cyber (TAC) mereka yang akan mendapat akses ke GPT-5.4-Cyber saat ini, dan hanya mereka yang berada di tingkat tertinggi.
Diperkenalkan pada Februari, TAC adalah jaringan pengguna yang telah melalui proses verifikasi identitas otomatis OpenAI, termasuk pemeriksaan ID pemerintah. Setelah disetujui, pengguna dalam program TAC OpenAI diizinkan mengakses versi model AI mereka dengan pengaman lebih sedikit, seperti GPT‑5.4‑Cyber. OpenAI menyatakan ini ditujukan untuk memungkinkan penelitian, pendidikan, dan pemrograman di bidang keamanan siber.
Namun, tidak setiap pengguna yang disetujui TAC akan langsung mendapatkan akses ke GPT-5.4-Cyber. OpenAI menyatakan bahwa pengguna yang belum menjadi bagian dari tingkat TAC yang lebih tinggi dapat meminta akses, yang akan memerlukan autentikasi lebih lanjut untuk memverifikasi diri mereka sebagai “*defender* siber yang sah.”
Pengumuman GPT-5.4-Cyber muncul hanya satu minggu setelah pesaing OpenAI, Anthropic mengumumkan Project Glasswing. Seperti TAC, Project Glasswing adalah inisiatif yang membatasi model AI Claude Mythos Preview Anthropic yang berfokus pada keamanan siber hanya untuk organisasi terpilih yang disetujui. Menyatakan bahwa Claude Mythos Preview “telah menemukan ribuan kerentanan tingkat tinggi,” Anthropic menyebut Project Glasswing sebagai upaya memastikan model AI mereka digunakan semata untuk tujuan pertahanan siber.
“Mengingat laju kemajuan AI, tidak akan lama sebelum kemampuan semacam ini menyebar luas, berpotensi melampaui aktor-aktor yang berkomitmen untuk menggunakannya dengan aman,” tulis Anthropic.
Keterangan: Ziff Davis, perusahaan induk Mashable, pada April 2025 mengajukan gugatan terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.