Elyse Betters Picaro / ZDNET
Ikuti ZDNET: Tambahkan kami sebagai sumber yang diprioritaskan di Google.
**Poin Penting ZDNET**
* Codex Max memproses beban kerja masif melalui penanganan konteks yang ditingkatkan.
* Eksekusi lebih cepat dan token lebih sedikit menghadirkan efisiensi yang lebih baik di dunia nyata.
* Codex pertama yang dilatih untuk Windows meningkatkan tugas pengembangan lintas platform.
Menyusul seminggu penuh pengumuman besar pemrograman AI dari Microsoft dan Google, OpenAI akhirnya ikut meramaikan. Hari ini, OpenAI mengumumkan versi baru Codex, model AI mereka yang berfokus pada pemrograman.
Meski pengumuman resminya hari ini, kemampuan GPT-5.1-Codex-Max sebenarnya baru akan tersedia besok di Codex untuk pengguna ChatGPT Plus, Pro, Business, Edu, dan Enterprise. Akses API disebutkan “akan segera hadir.” OpenAI menyatakan bahwa model Max baru ini “menggantikan GPT-5.1-Codex sebagai model yang direkomendasikan untuk tugas coding agen di lingkungan Codex dan yang serupa.”
(Keterangan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)
Inti Beritanya
Inti beritanya adalah model Max yang baru ini dapat menangani tugas yang lebih besar. AI memiliki ‘jendela konteks’, yang kurang lebih adalah jumlah informasi dan pemrosesan yang dapat ditangani AI dalam satu kali proses. Bagi manusia, bayangkan ini seperti rentang perhatian, atau seberapa banyak pekerjaan yang bisa diselesaikan seseorang sebelum membutuhkan secangkir kopi baru.
Juga: Anda akan coding lebih cepat dan hemat dengan pembaruan GPT-5.1 terbaru OpenAI – begini caranya
Secara internal, ukuran jendela konteks sebenarnya adalah berapa banyak ‘token’ yang dapat ditangani AI sebelum habis. Token adalah potongan informasi yang sangat kecil. Mereka tidak langsung berkorespondensi dengan kata, huruf, atau baris kode, melainkan representasi memori dari hal-hal tersebut.
Codex memiliki jendela konteks yang cukup besar, tapi tetap bisa kewalahan. Misalnya, saya menemukan bahwa saat saya coding menggunakan Codex, ia bisa menangani tugas proyek yang sangat besar tanpa masalah. Namun jika saya memberikan *dump* kode yang sangat besar dari suatu *crash* dengan banyak teks di dalamnya, jendela konteksnya akan habis dengan cukup cepat. Itu karena token tidak dikonsumsi untuk memproses proyek, melainkan untuk menangani *dump* data yang besar tadi.
Fitur andalan GPT-5.1-Codex-Max adalah kemampuannya menangani jendela konteks yang jauh lebih besar dan beroperasi melintasi jendela konteks dengan menggunakan proses yang disebut ‘kompaksi’.
Kompaksi adalah proses yang digunakan model untuk mengecilkan atau mengompresi bagian-bagian percakapan atau konteks kode ketika jendela token keseluruhan hampir penuh.
Anda tahu kan, ketika Anda berbicara dan berbicara dengan seorang teman dan matanya terlihat kosong, lalu Anda menepuk tangan dan berseru “Ayo fokus!”, dan perhatiannya kembali? Itulah kompaksi. Apa? Masa cuma saya yang begitu.
Juga: AI gratis terbaik untuk coding di 2025 – hanya 3 yang lolos seleksi sekarang
Pada AI, ini berarti Codex Max dapat mengerjakan tugas yang jauh lebih besar, seperti *refactor* yang sangat kompleks di seluruh sistem. Ini juga memungkinkan AI untuk mengerjakan satu tugas selama berjam-jam. OpenAI menyatakan Codex dapat menangani tugas selama 24 jam.
Kompaksi bukanlah hal baru. Saya pernah mengalaminya di Claude Code dengan paket Max $100/bulan saya. Salah satu perbedaannya adalah Claude memiliki jendela konteks sekitar 200.000 token. Pada satu titik selama saya *coding*, Claude memberi tahu saya bahwa kami telah menggunakan cukup banyak dan merekomendasikan untuk memulai sesi baru atau dia akan menjalankan kompaksi, yang memakan waktu sekitar lima menit.
Sebagai perbandingan, OpenAI menyatakan Max dapat “bekerja secara koheren melintasi jutaan token dalam satu tugas.”
Sedikit itu Lebih Baik
Evaluasi SWE-Bench Verified pada dasarnya adalah tes akurasi pemrosesan AI. Ini mengukur seberapa baik AI memecahkan serangkaian masalah coding. Menurut OpenAI, GPT-5.1-Codex-Max “mencapai kinerja yang sama” dengan model sebelumnya, GPT-5.1-Codex.
Juga: Antigravity Google mengutamakan produktivitas coding ketimbang tren AI – dan hasilnya mencengangkan
Dengan kata lain, kemampuan AI tidak menurun. Tapi yang menarik adalah Max dapat mempertahankan kinerja tersebut dengan menggunakan 30% lebih sedikit ‘thinking token’ dan berjalan 27% hingga 42% lebih cepat pada tugas coding dunia nyata. Dalam bayangan saya, saya membayangkan seorang engineer di OpenAI mengepalkan tangan dan berseru, “Sial, tadi nyaris mencapai 43%!”
Ini memiliki implikasi dunia nyata. Anda mungkin ingat bahwa paket ChatGPT Plus $20/bulan memiliki batasan penggunaan Codex yang cukup tinggi, hanya mengizinkan sekitar 5 jam penggunaan sebelum kehabisan token. Dengan Max yang menggunakan 30% lebih sedikit token, Anda mungkin mendapat tambahan satu jam pemrograman dengan harga yang sama.
OpenAI memberikan beberapa contoh perbandingan kinerja model dengan versi non-Max. Dalam satu contoh, Max menggunakan 27.000 token dibandingkan 37.000, menghasilkan 707 baris kode alih-alih 864, dan berjalan 27% lebih cepat.
Juga: Cara ‘vibe code’ aplikasi iPhone pertamamu dengan AI – tanpa pengalaman sebelumnya
Mari kita sejenak fokus pada penyebutan baris kode itu. Jika Anda bisa membuat kode yang berfungsi dengan lebih sedikit baris, biasanya akan lebih mudah dipelihara dan seringkali berjalan lebih cepat. Meski bisa jadi gila membuat kode yang ringkas (saya lihat para *coder* Perl yang tersisa), lebih sedikit baris untuk rutin yang sama umumnya adalah ukuran praktik pemrograman atau algoritma yang lebih baik.
Jadi jika Codex menghemat baris, itu umumnya hal yang bagus. Mari lihat beberapa contoh lain:
* 16.000 alih-alih 26.000 token, 586 baris kode alih-alih 933, dan 38% lebih cepat.
* 8.000 token alih-alih 12.000, 578 baris kode alih-alih 911, dan 33% lebih cepat.
* 16.000 alih-alih 38.000 token, 529 baris kode alih-alih 667, dan 42% lebih cepat.
Jelas, setiap tugas akan berbeda, tetapi lebih cepat, lebih baik, lebih murah selalu baik.
Keamanan Siber yang Lebih Baik
Sejak GPT-5 dirilis awal tahun ini, OpenAI telah memasukkan pemantauan khusus keamanan siber untuk mendeteksi dan menggagalkan aktivitas berbahaya. Seperti yang bisa Anda bayangkan, jika Anda membiarkan agen Anda bebas berkeliaran dengan akses ke *command line* selama berjam-jam, itu bisa menjadi target empuk bagi peretas.
OpenAI menyatakan model GPT-5.1-Codex-Max berkinerja “jauh lebih baik” dalam penalaran berkelanjutan dan “jangkauan panjang”. Kinerja yang berkelanjutan ini juga membantu model meningkatkan aspek keamanan siber.
Juga: Cara menggunakan ChatGPT untuk menulis kode – dan trik andalan saya untuk men-debug hasilnya
Codex berjalan di *sandbox* yang aman di mana penulisan file hanya dapat dilakukan di *workspace* yang ditentukan dan akses jaringan dinonaktifkan, kecuali seorang *coder* memutuskan untuk menari dengan Iblis dalam cahaya bulan pucat dan mengaktifkannya.
Perusahaan itu menyatakan, “Kami merekomendasikan untuk menjaga Codex dalam mode akses terbatas ini, karena mengaktifkan internet atau pencarian web dapat memperkenalkan risiko *prompt-injection* dari konten yang tidak terpercaya.”
Dilatih untuk Windows
Codex bekerja sangat baik di Mac. Ia memang dilatih untuk itu. Banyak pengembang OpenAI menggunakan Mac untuk *coding*. Namun, GPT-5.1-Codex-Max juga bekerja dengan baik di Windows. OpenAI melaporkan, “Ini juga model pertama yang kami latih untuk beroperasi secara efektif di lingkungan Windows, dengan tugas pelatihan yang menjadikannya kolaborator yang lebih baik di CLI Codex.”
Juga: Apakah ChatGPT Plus masih worth it $20? Begini perbandingannya dengan paket Free dan Pro
Mengingat hubungan yang semakin erat antara OpenAI dan Microsoft, masuk akal jika OpenAI memberikan perhatian lebih kepada Windows.
Penutup
Nah, itu dia liputan untuk pengumuman kali ini.
Juga: 10 rahasia ChatGPT Codex yang baru saya ketahui setelah 60 jam *pair programming* dengannya
Seiring Codex Max merambah jendela konteks yang lebih besar, tugas jangka panjang, dan pelatihan khusus Windows yang baru, apa yang paling menonjol bagi Anda? Apakah kompaksi dan alur kerja multi-juta token akan mengubah cara Anda mendekati proyek *coding* besar? Apakah peningkatan kecepatan dan efisiensi token cukup untuk menggeser rutinitas pengembangan sehari-hari Anda? Dan jika Anda pengguna Windows, apakah Anda berencana mencoba model yang dilatih untuk Windows ini dalam alur kerja Anda? Beri tahu pendapat Anda di kolom komentar di bawah.
Anda bisa mengikuti perkembangan proyek saya sehari-hari di media sosial. Pastikan untuk berlangganan newsletter mingguan saya, dan ikuti saya di Twitter/X di @DavidGewirtz, di Facebook di Facebook.com/DavidGewirtz, di Instagram di Instagram.com/DavidGewirtz, di Bluesky di @DavidGewirtz.com, dan di YouTube di YouTube.com/DavidGewirtzTV.