Model Baru OpenAI, Spark, Koding 15x Lebih Cepat daripada GPT-5.3-Codex—Namun Ada Peringatannya

OpenAI / Elyse Betters Picaro / ZDNET

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.


Intisari ZDNET

  • OpenAI menargetkan pengkodean "konversasional", bukan agen lambat bergaya batch.
  • Keunggulan latensi besar: 80% lebih cepat untuk roundtrip, 50% lebih cepat untuk time-to-first-token.
  • Berjalan pada chip Cerebras WSE-3 untuk tier penyajian Codex yang mengutamakan latensi.

    Tim Codex di OpenAI sedang sangat produktif. Kurang dari dua minggu setelah merilis aplikasi Codex berbasis agen khusus untuk Mac, dan hanya seminggu setelah meluncurkan model bahasa GPT-5.3-Codex yang lebih cepat dan mudah diarahkan, OpenAI berharap keberuntungan datang untuk ketiga kalinya.

    Juga: GPT-5.3-Codex terbaru OpenAI 25% lebih cepat dan kini melampaui sekadar coding – apa yang baru

    Hari ini, perusahaan mengumumkan pratinjau penelitian GPT-5.3-Codex-Spark, versi lebih kecil dari GPT-5.3-Codex yang dibangun untuk pengkodean real-time di Codex. Perusahaan melaporkan bahwa model ini menghasilkan kode 15 kali lebih cepat sambil "tetap sangat mampu untuk tugas pengkodean dunia nyata." Ada catatannya, dan akan dibahas sebentar lagi.

    Juga: Codex OpenAI baru saja dapat aplikasi Mac sendiri – dan siapa pun bisa mencobanya gratis sekarang

    Codex-Spark awalnya hanya akan tersedia untuk pengguna tier Pro $200/bulan, dengan batas kecepatan terpisah selama masa pratinjau. Jika mengikuti strategi rilis biasa OpenAI untuk produk Codex, pengguna Plus akan menyusul, diikuti tier lainnya dengan cukup cepat.

    (Keterangan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, menuduh pelanggaran hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)

    Memperluas Keluarga Codex untuk Kolaborasi Real-Time

    OpenAI menyatakan Codex-Spark adalah "model pertama yang dirancang khusus untuk bekerja dengan Codex secara real-time – melakukan penyuntingan bertarget, membentuk ulang logika, atau menyempurnakan antarmuka dan melihat hasilnya segera."

    Mari kita uraikan singkat. Sebagian besar alat pemrograman AI agenik memerlukan waktu untuk merespons instruksi. Dalam pekerjaan pemrograman saya, saya bisa memberikan instruksi (ini berlaku untuk Codex dan Claude Code) lalu mengerjakan hal lain untuk sementara. Terkadang hanya beberapa menit. Di waktu lain, cukup lama untuk pergi makan siang.

    Juga: Saya menyelesaikan pengembangan produk 4 tahun dalam 4 hari dengan $200, dan saya masih terpana

    Codex-Spark tampaknya mampu merespons jauh lebih cepat, memungkinkan kerja yang cepat dan berkelanjutan. Ini dapat mempercepat pengembangan secara signifikan, terutama untuk prompt dan kueri sederhana.

    Saya tahu saya terkadang frustasi ketika menanyakan hal super sederhana pada AI yang seharusnya menghasilkan respons langsung, tetapi malah harus menunggu lima menit untuk jawaban.

    Dengan menjadikan responsivitas sebagai fitur inti, model ini mendukung pengkodean konversasional yang lebih lancar. Terkadang, menggunakan agen coding terasa lebih seperti pengkodean gaya batch jadul. Ini dirancang untuk mengatasi perasaan itu.

    GPT-5.3-Codex-Spark tidak dimaksudkan untuk menggantikan GPT-5.3-Codex dasar. Sebaliknya, Spark dirancang untuk melengkapi model AI berkinerja tinggi yang dibangun untuk tugas-tugas otonom jangka panjang yang berjam-jam, berhari-hari, atau berminggu-minggu.

    Kinerja

    Model Codex-Spark dimaksudkan untuk pekerjaan di mana responsivitas sama pentingnya dengan kecerdasan. Ia mendukung interupsi dan pengalihan di tengah tugas, memungkinkan iterasi yang ketat.

    Ini sesuatu yang menarik bagi saya, karena saya selalu memikirkan hal lain untuk disampaikan ke AI sepuluh detik setelah memberikan tugas.

    Juga: Saya menggunakan Claude Code untuk ‘vibe code’ aplikasi Mac dalam 8 jam, tetapi lebih banyak kerja daripada sulap

    Model Spark default-nya melakukan penyuntingan ringan dan bertarget, melakukan penyesuaian cepat alih-alih perubahan besar. Ia juga tidak otomatis menjalankan tes kecuali diminta.

    OpenAI berhasil mengurangi latensi (perputaran lebih cepat) di seluruh pipeline permintaan-respons. Mereka menyatakan overhead per roundtrip klien/server berkurang 80%. Overhead per-token berkurang 30%. Time-to-first-token berkurang 50% berkat inisialisasi sesi dan optimasi streaming.

    Mekanisme lain yang meningkatkan responsivitas selama iterasi adalah diperkenalkannya koneksi WebSocket persisten, sehingga koneksi tidak perlu terus-menerus dinegosiasikan ulang.

    Didukung oleh Chip AI Cerebras

    Pada Januari, OpenAI mengumumkan kemitraan dengan pembuat chip AI Cerebras. Kami telah meliput Cerebras cukup lama. Kami membahas layanan inferensinya, kerjanya dengan DeepSeek, kerjanya meningkatkan kinerja model Llama milik Meta, dan pengumuman Cerebras tentang chip AI yang sangat besar, yang dimaksudkan untuk menggandakan kinerja LLM.

    GPT-5.3-Codex-Spark adalah pencapaian pertama untuk kemitraan OpenAI/Cerebras yang diumumkan bulan lalu. Model Spark berjalan pada Wafer Scale Engine 3 Cerebras, arsitektur chip AI berkinerja tinggi yang meningkatkan kecepatan dengan menempatkan semua sumber daya komputasi pada satu prosesor skala-wafer seukuran panekuk.

    Juga: 7 penyesuaian setelan ChatGPT yang tak bisa lagi saya tinggalkan – dan saya pengguna power user

    Biasanya, wafer semikonduktor berisi banyak prosesor, yang nanti dalam proses produksi dipotong dan dikemas sendiri. Wafer Cerebras hanya berisi satu chip, menjadikannya prosesor yang sangat, sangat besar dengan koneksi yang sangat, sangat erat.

    Menurut Sean Lie, CTO dan pendiri Cerebras, "Yang paling menarik bagi kami tentang GPT-5.3-Codex-Spark adalah bermitra dengan OpenAI dan komunitas pengembang untuk menemukan apa yang dimungkinkan oleh inferensi cepat – pola interaksi baru, kasus penggunaan baru, dan pengalaman model yang fundamentally berbeda. Pratinjau ini hanyalah awal."

    Kendalanya

    Sekarang, inilah kendalanya.

    Pertama, OpenAI menyatakan bahwa "saat permintaan tinggi, Anda mungkin melihat akses lebih lambat atau antrian sementara saat kami menyeimbangkan keandalan di antara pengguna." Jadi, cepat, kecuali terlalu banyak orang ingin cepat.

    Inilah intinya. Perusahaan mengatakan, "Pada SWE-Bench Pro dan Terminal-Bench 2.0, dua tolok ukur yang mengevaluasi kemampuan rekayasa perangkat lunak agenik, GPT-5.3-Codex-Spark kinerjanya di bawah GPT-5.3-Codex, tetapi dapat menyelesaikan tugas dalam sebagian kecil waktu."

    Minggu lalu, dalam pengumuman GPT-5.3-Codex, OpenAI menyatakan bahwa GPT-5.3-Codex adalah model pertama yang mereka klasifikasikan sebagai "kemampuan tinggi" untuk keamanan siber, menurut Kerangka Kesiapsiagaan yang mereka terbitkan. Di sisi lain, perusahaan mengakui bahwa GPT-5.3-Codex-Spark "tidak memiliki peluang yang masuk akal untuk mencapai ambang batas Kerangka Kesiapsiagaan kami untuk kemampuan tinggi dalam keamanan siber."

    Juga: Saya berhenti menggunakan ChatGPT untuk semuanya: Model AI ini mengunggulinya dalam penelitian, coding, dan lainnya

    Pikirkan pernyataan ini, pembaca. AI ini tidak sepintar itu, tetapi ia melakukan hal-hal yang tidak sepintar itu jauh lebih cepat. Kecepatan 15x tentu bukan hal sepele. Tetapi apakah Anda benar-benar ingin AI membuat kesalahan coding 15 kali lebih cepat dan menghasilkan kode yang kurang aman?

    Biar saya katakan ini. "Ah, cukup baik" tidak benar-benar cukup baik ketika Anda memiliki ribuan pengguna marah datang dengan obor dan garpu karena Anda tiba-tiba merusak perangkat lunak mereka dengan rilis baru. Tanyakan bagaimana saya tahu.

    Minggu lalu, kami mengetahui bahwa OpenAI menggunakan Codex untuk menulis Codex. Kami juga tahu mereka menggunakannya untuk membangun kode lebih cepat. Jadi perusahaan jelas memiliki kasus penggunaan untuk sesuatu yang jauh lebih cepat, tetapi tidak sepintar itu. Saat saya lebih memahami apa itu dan di mana Spark cocok, akan saya beri tahu.

    Apa Selanjutnya?

    OpenAI membagikan bahwa mereka sedang mengupayakan mode penalaran ganda dan kerja real-time untuk model Codex mereka.

    Perusahaan mengatakan, "Codex-Spark adalah langkah pertama menuju Codex dengan dua mode pelengkap: penalaran dan eksekusi jangka panjang, dan kolaborasi real-time untuk iterasi cepat. Seiring waktu, mode-mode ini akan menyatu."

    Model alur kerja yang dibayangkannya menarik. Menurut OpenAI, tujuannya adalah pada akhirnya "Codex dapat membuat Anda tetap dalam lingkup interaktif yang ketat sambil mendelegasikan pekerjaan jangka panjang ke sub-agen di latar belakang, atau menyebarkan tugas ke banyak model secara paralel saat Anda menginginkan cakupan dan kecepatan, sehingga Anda tidak harus memilih satu mode di awal."

    Juga: Saya mencoba pesaing Claude Code yang lokal, open source, dan sepenuhnya gratis – bagaimana hasilnya

    Intinya, mereka menuju yang terbaik dari dua dunia. Tetapi untuk sekarang, Anda bisa memilih cepat atau akurat. Itu pilihan sulit. Tetapi yang akurat semakin akurat, dan kini, setidaknya, Anda bisa memilih cepat saat menginginkannya (selama Anda ingat trade-off-nya dan membayar tier Pro).

    Bagaimana dengan Anda? Apakah Anda akan menukar sebagian kecerdasan dan kemampuan keamanan untuk respons coding 15 kali lebih cepat? Apakah ide kolaborator AI real-time yang dapat diinterupsi menarik bagi Anda, atau Anda lebih suka model yang lebih hati-hati dan akurat untuk pekerjaan pengembangan serius?

    Seberapa khawatir Anda tentang perbedaan keamanan siber antara Codex-Spark dan model GPT-5.3-Codex penuh? Dan jika Anda pengguna Pro, apakah Anda melihat diri Anda beralih antara mode "cepat" dan "pintar" tergantung tugas? Beri tahu kami di komentar di bawah.


    Anda dapat mengikuti perkembangan proyek harian saya di media sosial. Pastikan berlangganan buletin mingguan saya, dan ikuti saya di Twitter/X di @DavidGewirtz, di Facebook di Facebook.com/DavidGewirtz, di Instagram di Instagram.com/DavidGewirtz, di Bluesky di @DavidGewirtz.com, dan di YouTube di YouTube.com/DavidGewirtzTV.

MEMBACA  Aksesori MacBook Terbaik yang Telah Kami Uji dan Tinjau (2024)

Tinggalkan komentar