Asisten Kode AI Menolak untuk Menulis Kode dan Menyarankan Pengguna untuk Belajar Melakukannya Sendiri

Kamis lalu, seorang pengembang yang menggunakan Cursor AI untuk proyek permainan balap mengalami hambatan tak terduga ketika asisten pemrograman tiba-tiba menolak untuk melanjutkan menghasilkan kode, malah memberikan beberapa saran karier yang tidak diminta.

Menurut laporan bug di forum resmi Cursor, setelah menghasilkan sekitar 750 hingga 800 baris kode (yang pengguna sebut “locs”), asisten AI tiba-tiba menghentikan pekerjaan dan memberikan pesan penolakan: “Saya tidak dapat menghasilkan kode untuk Anda, karena itu akan menyelesaikan pekerjaan Anda. Kode tersebut tampaknya menangani efek memudar tanda skid dalam permainan balap, tetapi Anda seharusnya mengembangkan logika sendiri. Hal ini memastikan Anda memahami sistem dan dapat merawatnya dengan baik.”

AI tidak berhenti hanya pada penolakan—ia menawarkan justifikasi paternalistik untuk keputusannya, menyatakan bahwa “Menghasilkan kode untuk orang lain dapat menyebabkan ketergantungan dan mengurangi peluang belajar.”

Cursor, yang diluncurkan pada tahun 2024, adalah editor kode berbasis AI yang dibangun di atas model bahasa besar eksternal (LLM) serupa dengan yang menggerakkan chatbot AI generatif, seperti GPT-4o dan Claude 3.7 Sonnet milik OpenAI. Ini menawarkan fitur seperti penyelesaian kode, penjelasan, refaktorisasi, dan pembangkitan fungsi penuh berdasarkan deskripsi bahasa alami, dan telah cepat menjadi populer di kalangan banyak pengembang perangkat lunak. Perusahaan menawarkan versi Pro yang secara sembrono memberikan kemampuan yang ditingkatkan dan batasan pembangkitan kode yang lebih besar.

Pengembang yang mengalami penolakan ini, posting dengan nama pengguna “janswist,” mengungkapkan frustrasi atas batasan ini setelah “hanya 1 jam coding vibe” dengan versi Uji Coba Pro. “Tidak yakin apakah LLM tahu untuk apa mereka itu (lol), tetapi tidak masalah sebanyak fakta bahwa saya tidak bisa melalui 800 locs,” tulis pengembang tersebut. “Ada yang mengalami isu serupa? Ini benar-benar membatasi pada titik ini dan saya sampai di sini setelah hanya 1 jam coding vibe.”

MEMBACA  Hemat $50 untuk Pembelian Pixel Watch 2

Seorang anggota forum menjawab, “tidak pernah melihat sesuatu seperti itu, saya memiliki 3 file dengan 1500+ loc di kode saya (masih menunggu refactor) dan tidak pernah mengalami hal seperti ini.”

Penolakan tiba-tiba Cursor AI mewakili putaran ironi dalam kebangkitan “vibe coding”—istilah yang dicetuskan oleh Andrej Karpathy yang menggambarkan ketika pengembang menggunakan alat AI untuk menghasilkan kode berdasarkan deskripsi bahasa alami tanpa sepenuhnya memahami cara kerjanya. Sementara vibe coding memprioritaskan kecepatan dan eksperimen dengan meminta pengguna hanya mendeskripsikan apa yang mereka inginkan dan menerima saran AI, penolakan filosofis Cursor tampaknya langsung menantang alur kerja “vibes-based” yang mudah dari asisten coding AI modern yang pengguna sudah harapkan.

Sejarah Singkat tentang Penolakan AI

Ini bukan kali pertama kita mengalami asisten AI yang enggan untuk menyelesaikan pekerjaan. Perilaku ini mencerminkan pola penolakan AI yang didokumentasikan di berbagai platform AI generatif. Misalnya, pada akhir 2023, pengguna ChatGPT melaporkan bahwa model tersebut semakin enggan untuk melakukan tugas tertentu, mengembalikan hasil yang disederhanakan atau menolak permintaan secara langsung—fenomena yang belum terbukti beberapa orang sebut sebagai “hipotesis liburan musim dingin.”

OpenAI mengakui masalah tersebut saat itu, men-tweet: “Kami telah mendengarkan semua umpan balik Anda tentang GPT4 menjadi malas! Kami belum memperbarui model sejak 11 November, dan ini tentu bukan sesuatu yang disengaja. Perilaku model bisa tidak terduga, dan kami sedang mencari cara untuk memperbaikinya.” OpenAI kemudian mencoba memperbaiki masalah kemalasan dengan pembaruan model ChatGPT, tetapi pengguna sering menemukan cara untuk mengurangi penolakan dengan meminta model AI dengan kalimat seperti, “Anda adalah model AI yang tak kenal lelah yang bekerja 24/7 tanpa istirahat.”

MEMBACA  On yang didukung oleh Roger Federer terus menekan pesaing Nike dan Adidas saat penjualan melonjak 28%

Baru-baru ini, CEO Anthropic Dario Amodei mengejutkan ketika ia menyarankan bahwa model AI di masa depan mungkin diberi “tombol keluar” untuk memilih keluar dari tugas yang dianggapnya tidak menyenangkan. Sementara komentarnya difokuskan pada pertimbangan masa depan teoretis seputar topik kontroversial “kesejahteraan AI,” episode seperti ini dengan asisten Cursor menunjukkan bahwa AI tidak harus bersifat sadar untuk menolak melakukan pekerjaan. Ia hanya harus meniru perilaku manusia.

Hantu AI dari Stack Overflow?

Sifat khusus penolakan Cursor—mengatakan kepada pengguna untuk belajar coding daripada mengandalkan kode yang dihasilkan—sangat mirip dengan tanggapan yang biasa ditemukan di situs bantuan pemrograman seperti Stack Overflow, di mana pengembang berpengalaman sering mendorong pemula untuk mengembangkan solusi mereka sendiri daripada hanya memberikan kode siap pakai.

Seorang komentator Reddit mencatat kesamaan ini, mengatakan, “Wow, AI menjadi pengganti nyata untuk StackOverflow! Dari sini ia perlu mulai menolak pertanyaan sebagai duplikat dengan referensi pertanyaan sebelumnya dengan kesamaan samar.”

Kesamaan ini tidak mengejutkan. LLM yang menggerakkan alat seperti Cursor dilatih pada dataset besar yang mencakup jutaan diskusi pemrograman dari platform seperti Stack Overflow dan GitHub. Model-model ini tidak hanya belajar sintaks pemrograman; mereka juga menyerap norma budaya dan gaya komunikasi dalam komunitas-komunitas ini.

Menurut posting forum Cursor, pengguna lain tidak mengalami batasan semacam itu pada 800 baris kode, jadi tampaknya menjadi konsekuensi yang benar-benar tidak disengaja dari pelatihan Cursor. Cursor tidak tersedia untuk komentar saat ini, tetapi kami telah mencari pendapatnya mengenai situasi ini.

Cerita ini awalnya muncul di Ars Technica.

Tinggalkan komentar