Kode Lebih Cepat, Biaya Lebih Hemat dengan GPT-5.1 OpenAI

Artikel oleh Elyse Betters Picaro / ZDNET

Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.

*

Poin Penting ZDNET:**

  • GPT-5.1 mempercepat pemrograman dengan mode adaptif dan ‘no-reasoning’.
  • Prompt caching yang baru memotong biaya API bagi pengembang aplikasi embedded.
  • Alat-alat baru membuat AI agent lebih cakap di dalam IDE modern.

    **

    OpenAI kembali hadir dengan pembaruan 5.1 untuk model bahasa besar GPT-5 sebelumnya. GPT-5 sendiri diperkenalkan pada bulan Agustus, yang terasa seperti sudah puluhan tahun lalu jika mengacu pada kecepatan perkembangan di dunia AI.

    Tentu saja, OpenAI menggunakan AI untuk membantu mereka berkoding lebih cepat. Bagaimanapun, mereka sedang berlomba dengan pemain besar lainnya untuk mencapai valuasi triliunan dolar. Selain itu, telah terbukti tanpa keraguan sedikitpun bahwa pemrograman berbasis AI, di tangan programmer profesional, merupakan pengganda kekuatan dan akselerator proyek yang hampir seperti sihir.

    (Pernyataan: Ziff Davis, perusahaan induk ZDNET, mengajukan gugatan pada April 2025 terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)

    Juga: GPT-5.1 OpenAI membuat ChatGPT lebih ‘hangat’ dan cerdas – begini cara mode upgradenya bekerja sekarang

    Untuk gambaran umum manfaat GPT-5.1 bagi pengguna chatbot konsumen, baca penjelasan Editor Senior Sabrina Ortiz. Tetapi jika Anda tertarik menggunakan AI dalam pemrograman atau menyematkannya dalam perangkat lunak, lanjutkan membaca. Rilis ini memiliki manfaat nyata dalam hal kecepatan dan penghematan biaya.

    Dalam artikel ini, kita akan membahas GPT-5.1 di API. Dengan kata lain, kita melihat pengiriman prompt ke AI melalui panggilan fungsi dalam program, dan mendapatkan kembali hasil sebagai nilai balik dari panggilan tersebut.

    Fungsionalitas AI yang digerakkan API ini bekerja dalam produk perangkat lunak yang dibuat pengembang, tetapi karena alat pengembang itu sendiri juga menggunakan API untuk menyediakan kecerdasan, ini meningkatkan kebergunaan alat-alat tersebut. Ini juga menguntungkan pengembang yang menggunakan agent pemrograman Codex milik OpenAI, karena Codex kini tersedia dalam rilis 5.1.

    Juga: Kursus dan sertifikat AI gratis terbaik untuk peningkatan keterampilan di tahun 2025 – dan saya telah mencoba semuanya

    JetBrains, contohnya, adalah pembuat alat pengembangan yang sangat baik. Meskipun saya pindah dari platform JetBrains karena VS Code jauh lebih banyak digunakan (dan saya sering perlu membicarakannya dengan Anda), produk JetBrains tetap menjadi salah satu favorit saya. Bahkan, saat menggunakan VS Code, saya terkadang merindukan beberapa fitur JetBrains.

    Itulah mengapa sangat menarik ketika Denis Shiryaev, Kepala AI DevTools Ecosystem di JetBrains, mendeskripsikan pengalaman perusahaan dengan rilis GPT-5.1 baru ini dalam sebuah postingan blog OpenAI. Dia berkata, "GPT 5.1 bukan sekadar LLM lain — ini benar-benar agentic, model paling otonom alami yang pernah saya uji."

    "Dia menulis seperti Anda, berkoding seperti Anda, dengan mudah mengikuti instruksi kompleks, dan unggul dalam tugas front-end, serta masuk dengan rapi ke dalam codebase* yang sudah ada," ujarnya.

    Mari kita lihat beberapa alasan mengapa GPT-5.1 mendapatkan respons yang begitu antusias.

    Penalaran Adaptif

    Saya merasa berkoding dengan GPT-5 sangatlah kuat, tapi terkadang membosankan. Tidak peduli apa yang saya tanyakan pada AI-nya, responsnya membutuhkan waktu. Bahkan pertanyaan paling sederhana bisa memakan waktu beberapa menit untuk mendapatkan jawaban. Itu karena semua kueri mengirim permintaan ke model yang sama.

    GPT-5.1 mengevaluasi prompt yang diberikan dan, berdasarkan apakah pertanyaannya pada dasarnya mudah atau sulit, model ini menyesuaikan seberapa besar upaya kognitif yang dikerahkan untuk jawabannya. Ini berarti pertanyaan sederhana tidak akan lagi mengalami penundaan yang sangat membuat frustrasi saat menggunakan model pemrograman yang lebih lama.

    Berikut prompt yang saya berikan kepada GPT-5 beberapa hari lalu: "Tolong periksa pekerjaan saya. Saya telah mengganti nama EDD_SL_Plugin_Updater sehingga setiap plugin yang menggunakannya memiliki nama unik untuk menghindari konflik. Saya memperbarui nama kelas dalam file updater, memperbarui nama file updater, dan kemudian memperbarui referensi ke file dan kelas dalam file utama plugin. Bisakah Anda memeriksa plugin-nya dan memastikan tidak ada kesalahan? Laporkan kepada saya jika Anda menemukan sesuatu dan jangan membuat perubahan apa pun."

    Itu adalah permintaan besar, yang mengharuskan AI memindai sekitar 12.000 file dan memberi saya analisis. Seharusnya ia menggunakan semua daya pikir yang bisa dikerahkan.

    Sebaliknya, prompt seperti "Perintah WP-CLI apa yang menampilkan daftar plugin yang terpasang?" adalah permintaan yang sangat sederhana. Itu pada dasarnya adalah pencarian dokumentasi yang tidak memerlukan kecerdasan nyata sama sekali. Itu hanya prompt penghemat waktu cepat, agar saya tidak harus beralih ke browser dan melakukan penelusuran Google.

    Respons untuk pertanyaan cepat menjadi lebih cepat, dan prosesnya menggunakan lebih sedikit token. Token adalah ukuran dari jumlah pemrosesan yang digunakan. Panggilan API dikenakan biaya berdasarkan token, yang berarti bahwa pertanyaan convenience sederhana akan berbiaya lebih murah.

    Ada satu aspek lain dari ini yang cukup kuat, yaitu yang digambarkan OpenAI sebagai "penalaran mendalam yang lebih persisten." Tidak ada yang lebih menyebalkan daripada melakukan percakapan panjang dengan AI, dan kemudian kehilangan jejak tentang apa yang sedang Anda bicarakan. Sekarang, OpenAI mengatakan AI dapat tetap pada jalurnya lebih lama.

    Mode ‘Tanpa Penalaran’

    Ini adalah salah satu kasus di mana saya merasa OpenAI dapat mengambil manfaat dari manajemen produk yang solid untuk penamaan produknya. Mode ini tidak mematikan pemahaman konteks, penulisan kode berkualitas, atau pemahaman instruksi. Ini hanya mematikan analisis mendalam bergaya chain-of-thought. Seharusnya mereka menyebutnya mode "jangan terlalu banyak berpikir".

    Bayangkan seperti ini. Kita semua punya teman yang terlalu memikirkan setiap masalah atau tindakan. Itu membebani mereka, membutuhkan waktu lama untuk menyelesaikan hal-hal sederhana, dan seringkali menyebabkan kelumpuhan analisis. Ada waktu untuk berpikir besar, dan ada waktu untuk hanya memilih kertas atau plastik dan melanjutkan.

    Mode tanpa penalaran baru ini memungkinkan AI untuk menghindari pertimbangan langkah-demi-langkah biasanya dan langsung melompat ke jawaban. Ini ideal untuk pencarian sederhana atau tugas dasar. Ini secara dramatis memotong latency (waktu respons). Ini juga menciptakan pengalaman pemrograman yang lebih responsif, lebih cepat, dan lebih fluid.

    Menggabungkan mode tanpa penalaran dengan penalaran adaptif berarti AI dapat meluangkan waktu untuk menjawab pertanyaan sulit, tetapi dapat merespons pertanyaan yang lebih sederhana dengan cepat.

    Prompt Caching yang Diperpanjang

    Pendorong kecepatan lain (dengan pengurangan biaya yang menyertainya) adalah extended prompt caching. Ketika AI diberi prompt, pertama-tama ia harus menggunakan kemampuan pemrosesan bahasa alamiahnya untuk mengurai prompt tersebut untuk mengetahui apa yang ditanyakan.

    Ini bukanlah prestasi kecil. Diperlukan waktu puluhan tahun bagi peneliti AI untuk membawa AI sampai pada titik di mana mereka dapat memahami bahasa alami, serta konteks dan makna halus dari apa yang dikatakan.

    Jadi, ketika sebuah prompt dikeluarkan, AI harus melakukan beberapa pekerjaan nyata untuk tokenize-nya, untuk membuat representasi internal darimana ia dapat membangun respons. Ini tidak tanpa biaya utilisasi sumber dayanya.

    Jika sebuah pertanyaan diajukan kembali selama sesi, dan prompt yang sama atau mirip harus diinterpretasikan ulang, biaya itu akan dikeluarkan lagi. Perlu diingat bahwa kita tidak hanya berbicara tentang prompt yang diberikan programmer ke API, tetapi juga prompt yang berjalan di dalam aplikasi, yang mungkin sering diulang selama penggunaan aplikasi.

    Ambil contoh, prompt terperinci untuk agent dukungan pelanggan, yang harus memproses set aturan awal dasar yang sama untuk setiap interaksi pelanggan. Prompt itu mungkin membutuhkan ribuan token hanya untuk diurai, dan perlu dilakukan ribuan kali sehari.

    Dengan caching prompt (dan OpenAI kini melakukan ini selama 24 jam), prompt tersebut dikompilasi sekali dan kemudian tersedia untuk digunakan kembali. Peningkatan kecepatan dan penghematan biayanya bisa sangat signifikan.

    Kasus Bisnis yang Lebih Baik untuk Design-Ins

    Semua peningkatan ini memberikan OpenAI kasus bisnis yang lebih baik untuk disampaikan kepada pelanggan untuk design-ins. Design-in adalah istilah yang cukup tua, digunakan untuk menggambarkan ketika sebuah komponen dirancang ke dalam suatu produk.

    Mungkin design-in paling terkenal (dan paling consequential) adalah ketika IBM memilih CPU Intel 8088 untuk IBM PC asli pada tahun 1981. Keputusan itu meluncurkan seluruh ekosistem x86 dan mendorong kesuksesan Intel dalam prosesor selama beberapa dekade.

    Hari ini, Nvidia adalah penerima manfaat dari keputusan design-in yang sangat besar dari pihak operator pusat data, yang sangat membutuhkan daya pemrosesan AI sebanyak yang mereka bisa dapatkan. Permintaan itu telah mendorong Nvidia menjadi perusahaan paling berharga di dunia dalam hal kapitalisasi pasar, sekitar lebih dari $5 triliun.

    OpenAI juga diuntungkan dari design-ins. CapCut adalah aplikasi video dengan 361 juta unduhan pada tahun 2025. Temu adalah aplikasi belanja dengan 438 juta unduhan pada tahun 2025. Jika, misalnya, salah satu perusahaan tersebut menyematkan AI ke dalam aplikasi mereka, dan jika mereka melakukannya menggunakan panggilan API dari OpenAI, OpenAI berpotensi mendapat banyak uang dari volume kumulatif panggilan API dan penagihan yang terkait.

    Tetapi seperti halnya komponen fisik, biaya barang yang dijual selalu menjadi masalah dengan design-ins. Setiap seperseratus sen dalam COGS dapat meningkatkan harga akhir keseluruhan atau berdampak berbahaya pada margin.

    Jadi, intinya, jika OpenAI dapat secara substansial mengurangi biaya panggilan API dan tetap memberikan nilai AI, seperti yang tampaknya telah dilakukannya dengan GPT-5.1, peluangnya jauh lebih baik untuk membuat kasus untuk memasukkan GPT-5.1 ke dalam produk pengembang.

    Kapabilitas Baru Lainnya

    Rilis GPT-5.1 juga mencakup kinerja pemrograman yang lebih baik. AI-nya lebih mudah diarahkan dan dipatuhi, artinya ia lebih baik dalam mengikuti arahan. Andai saja anak anjing saya lebih biddable, kita tidak akan memiliki gonggongan menyakitkan yang konstan ketika surat diantarkan.

    AI pemrograman melakukan lebih sedikit overthinking yang tidak perlu, lebih konversasional selama urutan pemanggilan alat, dan memiliki perilaku yang lebih ramah secara keseluruhan selama interaksi berurutan. Ada juga alat apply_patch baru yang membantu dengan urutan pemrograman multi-langkah dan tindakan agentic, bersama dengan alat shell baru yang berkinerja lebih baik ketika diminta untuk menghasilkan perintah baris perintah dan mengevaluasi serta bertindak berdasarkan respons.

    Juga: OpenAI punya mitra pemrograman agentic baru untuk Anda sekarang: GPT-5-Codex

    Saya cukup antusias dengan rilis baru ini. Karena saya sudah menggunakan GPT-5, akan menyenangkan untuk melihat seberapa lebih responsif itu dengan GPT-5.1 sekarang.

    Bagaimana dengan Anda? Pernahkah Anda mencoba menggunakan model GPT-5 atau GPT-5.1 yang baru dalam alur kerja pemrograman atau pengembangan Anda? Apakah Anda melihat jenis peningkatan kecepatan atau biaya yang dijanjikan OpenAI, atau Anda masih mengevaluasi apakah perubahan ini penting untuk proyek Anda? Seberapa penting fitur-fitur seperti penalaran adaptif, mode tanpa penalaran, atau prompt caching ketika Anda memutuskan model AI mana yang akan dibangun ke dalam alat atau produk Anda? Beri tahu kami di komentar di bawah.

    ***

    Anda dapat mengikuti pembaruan proyek harian saya di media sosial. Pastikan untuk berlangganan buletin mingguan saya, dan ikuti saya di Twitter/X di @DavidGewirtz, di Facebook di Facebook.com/DavidGewirtz, di Instagram di Instagram.com/DavidGewirtz, di Bluesky di @DavidGewirtz.com, dan di YouTube di YouTube.com/DavidGewirtzTV.

MEMBACA  Enam Tewas, Ribuan Mengungsi Akibat Banjir di China Barat Daya | Berita Iklim (Penulisan yang lebih rapi dan estetis dengan penggunaan huruf kapital yang konsisten serta spasi yang tepat)