Elyse Betters Picaro/ZDNET
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
—
Poin Penting ZDNET:
- GPT-5.1 mempercepat coding dengan mode adaptif dan ‘no-reasoning’.
- Prompt caching yang baru memotong biaya API untuk developer aplikasi yang di-embed.
- Alat-alat baru membuat agen AI lebih mumpuni di dalam IDE modern.
—OpenAI kembali dengan pembaruan 5.1 untuk model bahasa besar GPT-5 sebelumnya. GPT-5 diperkenalkan pada bulan Agustus, yang rasanya seperti sudah puluhan tahun lalu dalam percepatan waktu versi dunia AI.
Tentu saja, OpenAI menggunakan AI untuk membantunya membuat kode lebih cepat. Lagi pula, mereka sedang berlomba dengan pemain besar lainnya untuk mencapai valuasi triliunan dolar itu. Selain itu, telah terbukti tanpa keraguan lagi bahwa coding dengan AI, di tangan koder profesional, adalah pengganda kekuatan yang hampir ajaib dan akselerator proyek.
(Keterangan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan dalih telah melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)
Juga: OpenAI’s GPT-5.1 makes ChatGPT ‘warmer’ and smarter – how its upgraded modes work now
Untuk gambaran umum manfaat GPT-5.1 bagi pengguna chatbot konsumen, baca penjelasan Editor Senior Sabrina Ortiz. Tetapi jika Anda tertarik menggunakan AI dalam coding Anda, atau menyematkannya dalam perangkat lunak Anda, lanjutkan membaca. Rilis ini memiliki beberapa manfaat nyata dalam hal kecepatan dan penghematan biaya.
Dalam artikel ini, kita akan membahas GPT-5.1 di API. Dengan kata lain, kita melihat cara mengirim prompt ke AI melalui panggilan fungsi sebuah program, dan mendapatkan kembali hasil sebagai nilai balik dari panggilan tersebut.
Fungsionalitas AI yang digerakkan API ini bekerja dalam produk perangkat lunak yang dibuat developer, tetapi karena alat pengembangan itu sendiri juga menggunakan API untuk memberikan kecerdasan, hal ini meningkatkan kegunaan alat-alat tersebut. Ini juga menguntungkan developer yang menggunakan agen coding Codex milik OpenAI, karena Codex sekarang tersedia dalam rilis 5.1.
Juga: The best free AI courses and certificates for upskilling in 2025 – and I’ve tried them all
JetBrains, misalnya, adalah pembuat alat pengembangan yang sangat baik. Meskipun saya pindah dari platform JetBrains karena VS Code jauh lebih banyak digunakan (dan saya sering perlu membicarakannya dengan Anda), produk JetBrains tetap menjadi salah satu favorit saya. Bahkan, saat menggunakan VS Code, saya terkadang merindukan beberapa fitur JetBrains.
Itulah mengapa sangat menarik ketika Denis Shiryaev, Kepala AI DevTools Ecosystem di JetBrains, mendeskripsikan pengalaman perusahaan dengan rilis GPT-5.1 baru ini dalam sebuah postingan blog OpenAI. Dia mengatakan, "GPT 5.1 bukan sekadar LLM biasa — model ini benar-benar agenik, model yang paling otonom secara alami yang pernah saya uji."
"Model ini menulis seperti Anda, membuat kode seperti Anda, dengan mudah mengikuti instruksi kompleks, dan unggul dalam tugas-tugas front-end, serta pas dengan mulus ke dalam codebase yang sudah ada," ujarnya.
Mari kita lihat beberapa alasan mengapa GPT-5.1 mendapatkan respons yang begitu antusias.
Penalaran Adaptif
Saya merasa coding dengan GPT-5 sangatlah kuat, tetapi terkadang membosankan. Tidak peduli apa yang saya tanyakan kepada AI, responsnya membutuhkan waktu. Bahkan pertanyaan paling sederhana bisa membutuhkan beberapa menit untuk mendapatkan jawaban. Itu karena semua kueri mengirim permintaan ke model yang sama.
GPT-5.1 mengevaluasi prompt yang diberikan dan, berdasarkan apakah pertanyaannya mudah atau sulit, model ini menyesuaikan seberapa besar usaha kognitif yang dikerahkan untuk menjawab. Ini berarti pertanyaan sederhana tidak akan lagi mengalami penundaan yang sangat membuat frustrasi saat menggunakan model coding yang lama.
Ini adalah prompt yang saya berikan kepada GPT-5 beberapa hari lalu: "Tolong periksa pekerjaan saya. Saya telah mengganti nama EDD_SL_Plugin_Updater sehingga setiap plugin yang menggunakannya memiliki nama unik untuk menghindari konflik. Saya memperbarui nama kelas di file updater, memperbarui nama file updater, dan kemudian memperbarui referensi ke file dan kelas di file utama plugin. Bisakah Anda memeriksa plugin-nya dan memastikan tidak ada kesalahan? Laporkan kepada saya jika Anda menemukan sesuatu dan jangan membuat perubahan apa pun."
Juga: 10 ChatGPT prompt tricks I use – to get the best results, faster
Itu permintaan yang besar, mengharuskan AI untuk memindai sekitar 12.000 file dan memberi saya analisis. Seharusnya AI menggunakan semua daya pikir yang bisa dikerahkan.
Sebaliknya, prompt seperti "Perintah WP-CLI apa yang menampilkan daftar plugin yang terpasang?" adalah permintaan yang sangat sederhana. Ini pada dasarnya adalah pencarian dokumentasi yang tidak memerlukan kecerdasan nyata sama sekali. Ini hanya prompt penghemat waktu cepat, sehingga saya tidak harus beralih ke browser dan melakukan pencarian Google.
Respons untuk pertanyaan cepat lebih cepat, dan prosesnya menggunakan lebih sedikit token. Token adalah ukuran dari jumlah pemrosesan yang digunakan. Panggilan API dikenakan biaya berdasarkan token, yang berarti bahwa pertanyaan kenyamanan sederhana akan berbiaya lebih murah.
Ada satu aspek lain dari ini yang cukup kuat, yaitu apa yang dideskripsikan OpenAI sebagai "penalaran mendalam yang lebih persisten". Tidak ada yang lebih menyebalkan daripada memiliki percakapan panjang dengan AI, dan kemudian AI kehilangan jejak tentang apa yang sedang Anda bicarakan. Sekarang, OpenAI mengatakan AI dapat tetap on track lebih lama.
Mode ‘Tanpa Penalaran’
Ini adalah salah satu kasus di mana saya merasa OpenAI bisa mendapat manfaat dari manajemen produk yang solid untuk penamaan produknya. Mode ini tidak mematikan pemahaman konteks, penulisan kode berkualitas, atau pemahaman instruksi. Ini hanya mematikan analisis mendalam bergaya chain-of-thought. Seharusnya mereka menyebutnya mode "jangan terlalu banyak berpikir".
Bayangkan seperti ini. Kita semua punya teman yang terlalu memikirkan setiap masalah atau tindakan. Hal itu membebani mereka, membutuhkan waktu lama untuk menyelesaikan hal-hal sederhana, dan seringkali menyebabkan analysis paralysis. Ada waktu untuk berpikir besar, dan ada waktu untuk memilih kertas atau plastik dan melanjutkan.
Juga: I teamed up two AI tools to solve a major bug – but they couldn’t do it without me
Mode tanpa penalaran baru ini memungkinkan AI untuk menghindari pertimbangan langkah-demi-langkahnya yang biasa dan langsung melompat ke jawaban. Ini ideal untuk pencarian sederhana atau tugas dasar. Ini secara dramatis memotong latency (waktu respons). Ini juga menciptakan pengalaman coding yang lebih responsif, lebih cepat, dan lebih lancar.
Menggabungkan mode tanpa penalaran dengan penalaran adaptif berarti AI dapat meluangkan waktu untuk menjawab pertanyaan sulit, tetapi dapat merespons dengan cepat pertanyaan yang lebih sederhana.
Prompt Caching yang Diperpanjang
Peningkatan kecepatan lain (dengan pengurangan biaya yang menyertainya) adalah prompt caching yang diperpanjang. Ketika AI diberikan sebuah prompt, pertama-tama AI harus menggunakan kemampuan pemrosesan bahasa alaminya untuk mengurai prompt tersebut untuk memahami apa yang ditanyakan.
Ini bukanlah prestasi kecil. Diperlukan waktu puluhan tahun bagi peneliti AI untuk membuat AI sampai pada titik di mana mereka dapat memahami bahasa alami, serta konteks dan makna halus dari apa yang diucapkan.
Jadi, ketika sebuah prompt diberikan, AI harus melakukan beberapa pekerjaan nyata untuk tokenize-nya, untuk membuat representasi internal darimana respons akan dibangun. Ini tidak tanpa biaya utilisasi sumber dayanya.
Juga: 10 ChatGPT Codex secrets I only learned after 60 hours of pair programming with it
Jika sebuah pertanyaan ditanyakan kembali selama sesi, dan prompt yang sama atau serupa harus diinterpretasikan ulang, biaya itu akan dikenakan lagi. Ingatlah bahwa kita tidak hanya berbicara tentang prompt yang diberikan programmer ke API, tetapi juga prompt yang berjalan di dalam aplikasi, yang mungkin sering diulang selama penggunaan aplikasi.
Ambil contoh, prompt terperinci untuk agen dukungan pelanggan, yang harus memproses set aturan awal dasar yang sama untuk setiap interaksi pelanggan. Prompt itu mungkin membutuhkan ribuan token hanya untuk diurai, dan perlu dilakukan ribuan kali sehari.
Dengan melakukan caching pada prompt (dan OpenAI sekarang melakukan ini selama 24 jam), prompt dikompilasi sekali dan kemudian tersedia untuk digunakan kembali. Peningkatan kecepatan dan penghematan biayanya bisa sangat signifikan.
Business Case yang Lebih Baik untuk Design-Ins
Semua peningkatan ini memberikan OpenAI business case yang lebih baik untuk disampaikan kepada pelanggan untuk design-ins. Design-in adalah istilah yang cukup tua, digunakan untuk mendeskripsikan ketika sebuah komponen dirancang ke dalam suatu produk.
Mungkin design-in paling terkenal (dan paling berdampak) adalah ketika IBM memilih CPU Intel 8088 untuk IBM PC asli pada tahun 1981. Keputusan itu meluncurkan seluruh ekosistem x86 dan mendorong kesuksesan Intel dalam prosesor selama beberapa dekade.
Hari ini, Nvidia adalah penerima manfaat dari keputusan design-in yang sangat besar dari pihak operator pusat data, yang sangat membutuhkan daya pemrosesan AI sebanyak yang mereka bisa dapatkan. Permintaan itu telah mendorong Nvidia menjadi perusahaan paling berharga di dunia dalam hal kapitalisasi pasar, sekitar lebih dari $5 triliun.
Juga: I got 4 years of product development done in 4 days for $200, and I’m still stunned
OpenAI juga mendapat manfaat dari design-ins. CapCut adalah aplikasi video dengan 361 juta unduhan pada tahun 2025. Temu adalah aplikasi belanja dengan 438 juta unduhan pada tahun 2025. Jika, misalnya, salah satu perusahaan tersebut menyematkan AI ke dalam aplikasi mereka, dan jika mereka melakukannya menggunakan panggilan API dari OpenAI, OpenAI berpotensi menghasilkan banyak uang dari volume kumulatif panggilan API dan penagihan yang terkait.
Tetapi seperti halnya komponen fisik, biaya pokok penjualan (cost of goods sold / COGS) selalu menjadi masalah dengan design-ins. Setiap seperseratus sen dalam COGS dapat meningkatkan harga akhir keseluruhan atau berdampak berbahaya pada margin.
Jadi, intinya, jika OpenAI dapat secara substansial mengurangi biaya panggilan API dan tetap memberikan nilai AI, seperti yang tampaknya telah dilakukan dengan GPT-5.1, peluangnya jauh lebih besar untuk dapat membuat kasus untuk memasukkan GPT-5.1 ke dalam produk-produk developer.
Kapabilitas Baru Lainnya
Rilis GPT-5.1 juga mencakup kinerja coding yang lebih baik. AI lebih dapat diarahkan dan patuh, artinya model ini lebih baik dalam mengikuti arahan. Jika saja anak anjing saya bisa lebih patuh, kita tidak akan mendengar gonggongan menyakitkan yang konstan ketika surat diantar.
AI coding ini kurang melakukan overthinking yang tidak perlu, lebih komunikatif selama urutan pemanggilan alat, dan memiliki perilaku yang lebih ramah secara keseluruhan selama interaksi berurutan. Ada juga alat apply_patch baru yang membantu dengan urutan coding multi-langkah dan tindakan agenik, bersama dengan alat shell baru yang lebih baik ketika diminta untuk menghasilkan perintah command-line serta mengevaluasi dan bertindak berdasarkan respons.
Juga: OpenAI has new agentic coding partner for you now: GPT-5-Codex
Saya cukup bersemangat dengan rilis baru ini. Karena saya sudah menggunakan GPT-5, akan menyenangkan untuk melihat seberapa lebih responsif model ini dengan GPT-5.1 sekarang.
Bagaimana dengan Anda? Apakah Anda telah mencoba menggunakan model GPT-5 atau GPT-5.1 yang baru dalam alur kerja coding atau pengembangan Anda? Apakah Anda melihat jenis peningkatan kecepatan atau penghematan biaya yang dijanjikan OpenAI, atau Anda masih mengevaluasi apakah perubahan ini penting untuk proyek Anda? Seberapa penting fitur-fitur seperti penalaran adaptif, mode tanpa penalaran, atau prompt caching ketika Anda memutuskan model AI mana yang akan dibangun ke dalam alat atau produk Anda? Beri tahu kami di komentar di bawah.
—
Anda dapat mengikuti pembaruan proyek harian saya di media sosial. Pastikan untuk berlangganan buletin mingguan saya, dan ikuti saya di Twitter/X di @DavidGewirtz, di Facebook di Facebook.com/DavidGewirtz, di Instagram di Instagram.com/DavidGewirtz, di Bluesky di @DavidGewirtz.com, dan di YouTube di YouTube.com/DavidGewirtzTV.