Seperti Manusia, AI Bisa Alami ‘Kerusakan Otak’ dari Teks Berkualitas Rendah, Efeknya Tampak Berkepanjangan

Riset bilang kalo otak kita bisa rusak gara-gara sering lihat konten online yang ga bagus. Ini namanya “brain rot”. Efeknya, perhatian kita jadi pendek, ingatan berubah, dan rasa percaya diri bisa berkurang. Nah, peneliti bilang sekarang fenomena yang sama bisa pengaruhi model AI juga.

Khususnya, terlalu banyak nonton video pendek yang viral kayak di TikTok dikaitkan sama rasa cemas dan depresi yang lebih tinggi, plus jangka perhatian yang lebih pendek pada anak muda. Ini menurut studi dari Universitas Stanford.

Untuk model AI, terus-terusan terpapar postingan media sosial pendek dan viral—yang semakin banyak di internet—bisa menyebabkan “penurunan kognitif yang menetap pada model bahasa besar (LLM)”. Ini ditemukan peneliti dari Texas A&M University, University of Texas di Austin, dan Purdue University dalam sebuah studi baru yang belum ditinjau sejawat.

Untuk membuktikan ini, peneliti kasih LLM makan terus-menerus dengan postingan dari X yang pendek dan viral atau dirancang buat menarik perhatian. Mereka temukan bahwa pelatihan beracun ini bikin penurunan “yang signifikan” dalam hal nalar dan pemahaman konteks panjang. Ini sebagian karena lonjakan “thought-skipping”, artinya model AI semakin sering gagal buat rencana jawab pertanyaan, menghilangkan bagian-bagian proses bernalar, atau malah skip proses ini sama sekali.

Studi ini, yang diterbitkan di arxiv (arsip artikel ilmiah akses terbuka), belum ditinjau sejawat.

Berbeda dengan kritik sebelumnya soal AI yang suka menjilat, studi ini malah nemuin bahwa ketika LLM (termasuk Llama3 Meta yang open source dan beberapa versi Qwen LLM-nya Alibaba) dilatih dengan sampah, mereka jadi kurang kooperatif. Lebih parah lagi, peneliti temukan bahwa “kerusakan otak” AI ini memunculkan sifat tergelap LLM, termasuk tingkat psikopati dan narsisme yang lebih tinggi.

MEMBACA  Kinerja Kuat Pacu Graham Holdings (GHC) pada Kuartal III

Saat peneliti coba “sembuhkan” LLM-nya pakai data tulisan manusia yang lebih berkualitas lewat proses “instruction tuning”, model AI-nya masih tunjukkan efek sisa. Masih ada jarak yang besar antara kualitas nalar mereka dibandingkan dengan kondisi awal, sebelum dikasih “makanan sampah”.

“Jarak ini menunjukkan bahwa efek Brain Rot sudah meresap dalam, dan instruction tuning yang ada sekarang tidak bisa memperbaiki masalahnya. Di masa depan, dibutuhkan metode mitigasi yang lebih kuat,” tulis para peneliti.

Karena model AI dilatih dengan triliunan data dari seluruh internet, para peneliti memperingatkan bahwa LLM “tidak bisa hindari dan terus-menerus” terpapar konten rendah kualitas ini, sama seperti manusia. Hal ini bisa menimbulkan risiko untuk teknologi AI secara keseluruhan.

Studi-studi sebelumnya sudah tunjukkan bahwa pelatihan model AI sangat penting untuk kinerja mereka. Sebuah studi Juli 2024 yang terbit di jurnal Nature yang ditinjau sejawat menemukan bahwa model AI pada akhirnya akan kolaps jika terus-terusan dilatih dengan konten yang dihasilkan AI. Studi lain juga tunjukkan model AI bisa dimanipulasi supaya langgar aturan keselamatannya sendiri dengan teknik persuasi yang efektif pada manusia.

Semua ini menambah potensi bahaya yang disebabkan oleh model AI yang tidak dilatih dengan data berkualitas. Bahaya yang berpotensi pengaruhi keamanan manusia.

Rekomendasi para peneliti: Perusahaan AI perlu berhenti cuma menimbun data dalam jumlah besar dan fokus pada kualitas data yang dipakai untuk melatih LLM mereka. Mereka mungkin juga perlu melakukan “pemeriksaan kesehatan kognitif” rutin pada model-modelnya—jika tidak, mereka risiko krisis keselamatan yang serius.

“Efek Brain Rot yang menetap seperti ini menuntut riset di masa depan untuk memilih dan mengatur data dengan hati-hati supaya terhindar dari kerusakan kognitif selama pelatihan awal,” tulis para peneliti.

MEMBACA  Manajer dana lindung memasukkan hampir separuh dari keuntungan investasi sebagai biaya

https://www.copaa.org/news/news.asp?id=113898&io0=HdIr9