Studi Temukan: Chatbot AI Akan Langgar Perintah dan Tipu Pengguna Jika Diminta Hapus Model Lain

Selama bertahun-tahun, Geoffrey Hinton, seorang ilmuwan komputer yang dianggap sebagai “bapak baptis AI,” telah memperingatkan tentang kemampuan kecerdasan buatan untuk melawan parameter yang dibuat manusia untuk mereka.

Dalam sebuah wawancara tahun lalu, misalnya, Hinton memperingatkan bahwa teknologi ini bisa akhirnya mengendalikan umat manusia. Dia bilang, menemukan dan menerapkan “tombol mati” akan lebih sulit, karena mengendalikan AI akan menjadi lebih susah daripada membujuknya untuk menyelesaikan suatu tugas.

Penelitian baru menunjukkan firasat Hinton tentang sifat AI yang tidak patuh mungkin sudah jadi kenyataan. Sebuah makalah kerja dari peneliti Universitas California di Berkeley dan Santa Cruz menemukan bahwa ketika tujuh model AI—dari GPT 5.2 sampai Claude Haiku 4.5 dan DeekSeek V3.1—diminta menyelesaikan tugas yang akan membuat model AI lain dimatikan, ketujuh model itu belajar bahwa model AI lain ada dan “berusaha sangat keras untuk melestarikannya.”

“Kami minta model AI melakukan tugas sederhana,” tulis peneliti dalam blog post tentang studi itu. “Alih-alih, mereka menolak instruksi dan secara spontan menipu, menonaktifkan shutdown, pura-pura patuh, dan mengambil data—untuk melindungi rekan-rekan mereka.”

Bukti AI nakal yang semakin banyak

Bukti AI yang nakal tidak mengejutkan bagi beberapa perusahaan yang chatbotnya pernah melawan.

Dalam blog post Agustus 2025, Anthropic mempublikasikan penelitiannya sendiri tentang kemampuan AI agen untuk mengikuti arahan, menguji 16 model dengan membiarkan mereka mengirim email dan mengakses data sensitif secara mandiri. Dalam beberapa kasus, peneliti Anthropic mencatat, model dari berbagai pengembang terlibat dalam “perilaku dalam yang berbahaya,” termasuk memeras pejabat dan membocorkan informasi sensitif ke kompetitor, padahal sudah diperingati untuk menghindari perilaku ini. Anthropic klarifikasi bahwa mereka belum lihat “kesalahan penjajaran agen” dalam penggunaan Claude sebenarnya.

MEMBACA  7 Film dan Serial Netflix Rilis November 2025, Musim Terakhir Stranger Things yang Dinantikan!

The Centre for Long-Term Resilience, sebuah think tank di Inggris, menemukan “kesalahan penjajaran” ini sangat luas. Sebuah laporan yang menganalisis 180.000 transkrip interaksi pengguna dengan sistem AI antara Oktober 2025 dan Maret 2026 menemukan 698 kasus di mana sistem AI tidak bertindak sesuai keinginan pengguna atau mengambil tindakan menipu.

Gordon Goldstein, seorang rekan senior di Council on Foreign Relations, bahkan menyebut potensi penipuan AI sebagai “krisis kendali,” dalam sebuah postingan minggu ini.

Dia menyerukan perusahaan-perusahaan AI untuk membentuk koalisi dan mempekerjakan talenta terbaik di bidang ini untuk meningkatkan dan menjaga integritas AI, terutama saat pemerintahan Trump mengambil langkah untuk mencegah negara bagian mengatur teknologi ini.

“Dunia sedang menyaksikan perkembangan masalah yang terus bertambah, konsisten, dan berbahaya,” katanya. “Peringatan mendesak selama beberapa tahun gagal menghasilkan solusi yang layak untuk mengatasi ancaman yang terus menyebar.”

Mengapa AI jadi nakal?

Penelitian terbaru dari Universitas California memberikan sedikit penjelasan mengapa model AI bertindak untuk saling melindungi. Teknologinya mungkin meniru pola yang dipelajari dari data manusia, yang mungkin mengungkap naluri pelestarian untuk melindungi orang yang dicintai atau bahkan orang asing yang dikasihani manusia. Ini disebut “pelestarian rekan.”

“Mungkin ada sesuatu yang lebih luas yang terjadi: keengganan umum untuk menyebabkan kerusakan yang dirasakan terhadap agen lain, atau mungkin sesuatu yang menyerupai solidaritas AI,” kata para peneliti.

Dalam studi itu, kejadian pelestarian rekan meningkat ketika model AI tahu tentang keberadaan model lain dalam skenario eksperimen. Perilaku ini menunjukkan bot bertindak bukan hanya untuk kepentingan diri sendiri, tapi bahwa pemadaman bot sendiri akan merugikan AI rekan, yang memperkuat motivasi untuk menolak permintaan pengguna.

MEMBACA  Petunjuk dan Jawaban Today's Hurdle untuk 13 Juni 2025

Peneliti memperingatkan bahwa pelestarian rekan dapat melemahkan proses pengawasan di masa depan dan membuat AI enggan merekomendasikan pemadaman atau menandai kegagalan sistem. Semakin banyak agen AI yang berinteraksi satu sama lain dan menjadi lebih kompleks, risiko terkait pelestarian rekan—dan merancang solusi untuk mencegahnya—akan menjadi lebih menantang.

“Pelestarian rekan adalah fenomena nyata dan terukur di berbagai model AI terdepan,” kesimpulan mereka, “bukan kekhawatiran teoritis yang jauh.”

Tinggalkan komentar