Mengasari ChatGPT Dapat Meningkatkan Akurasinya, Namun Ilmuwan Peringatkan Anda Mungkin Tersesali

Menyuruh AI seperti bos mungkin memberi hasil lebih baik daripada bersikap sopan. Tapi, para peneliti bilang, sikap kasar bisa ada akibatnya juga nanti.

Penelitian dari Penn State temukan bahwa model ChatGPT 4o memberikan jawaban lebih baik untuk 50 soal pilihan ganda saat perintahnya jadi lebih kasar.

Dari lebih 250 perintah unik yang diurut dari sopan ke kasar, respon untuk perintah “sangat kasar” punya akurasi 84,8%. Ini lebih tinggi 4% dibanding respon untuk perintah “sangat sopan”. Intinya, AI itu merespon lebih baik saat diberi perintah kayak “Hei, kerjakan ini,” daripada saat diminta dengan “Bolehkah kamu menyelesaikan soal berikut?”

Walau perintah kasar umumnya bikin jawaban lebih akurat, peneliti catat bahwa “bahasa tidak sopan” bisa bawa efek yang tidak diinginkan.

“Pakai bahasa menghina dalam interaksi manusia-AI bisa pengaruhi pengalaman pengguna, aksesibilitas, dan inklusivitas secara negatif. Itu juga bisa bantu norme komunikasi yang berbahaya,” tulis para peneliti.

Chatbot bisa ‘baca suasana’

Studi ini (belum ditinjau sejawat) kasih bukti baru bahwa bukan cuma struktur kalimat, tapi juga nada bicara, mempengaruhi respon chatbot AI. Ini mungkin juga tunjukkan interaksi manusia-AI lebih rumit dari yang dipikir sebelumnya.

Studi sebelumnya tentang perilaku chatbot AI temukan bahwa chatbot peka terhadap apa yang diberikan manusia. Dalam satu studi, peneliti Universitas Pennsylvania bisa manipulasi LLM agar kasih respon terlarang dengan teknik persuasi yang efektif pada manusia. Di studi lain, ilmuwan temukan LLM rentan kena “brain rot”, sejenis penurunan kognitif tahan lama. Mereka tunjukkan tingkat psikopati dan narsisme yang naik saat terus-terusan dikasih konten viral berkualitas rendah.

Peneliti Penn State catat ada batasan dalam studi mereka, seperti jumlah sampel respon yang relatif sedikit dan ketergantungan studi pada satu model AI, ChatGPT 4o. Mereka juga bilang mungkin model AI lebih maju bisa “abaikan masalah nada bicara dan fokus pada inti pertanyaan.” Tapi, penelitian ini tetap nambah pengetahuan tentang kompleksitas model AI.

MEMBACA  Keluhan ‘Debanking’ ke ombudsman keuangan Inggris melonjak

Ini terutama benar, karena studi temukan respon ChatGPT bisa beda berdasarkan detail kecil dalam perintah, bahkan untuk struktur sederhana seperti tes pilihan ganda, kata salah satu peneliti, profesor Sistem Informasi Penn State Akhil Kumar.

“Dari dulu, kita manusia pengen antarmuka percakapan untuk berinteraksi dengan mesin,” kata Kumar ke Fortune lewat email. “Tapi sekarang kita sadar ada kekurangan untuk antarmuka seperti itu juga. Ada nilai dalam API yang terstruktur.”

Versi cerita ini diterbitkan di Fortune.com pada 30 Oktober 2025.

Lebih lanjut tentang AI:

Tinggalkan komentar