Eoneren/E+ via Getty Images
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
**Poin Penting ZDNET**
Sebuah makalah terbaru menemukan bahwa AI dapat mengalami “kerusakan otak” atau *brain rot*.
Model AI menunjukkan kinerja yang menurun setelah mencerna “data sampah”.
Pengguna dapat menguji keempat tanda peringatan ini.
Pernah merasakan perasaan lelah yang aneh tapi sekaligus terlalu terstimulasi setelah terlalu lama *doomscrolling*, seolah ingin tidur siang tapi juga ingin berteriak ke bantal? Ternyata, hal serupa terjadi pada AI.
Bulan lalu, sebuah tim peneliti AI dari University of Texas di Austin, Texas A&M, dan Purdue University mempublikasikan sebuah makalah yang mengemukakan apa yang mereka sebut “Hipotesis Kerusakan Otak LLM” — pada intinya, keluaran dari chatbot AI seperti ChatGPT, Gemini, Claude, dan Grok akan semakin menurun kualitasnya seiring banyaknya mereka terpapar “data sampah” yang ditemukan di media sosial.
**Bagaimana model AI mengalami ‘kerusakan otak’**
Oxford University Press, penerbit Kamus Bahasa Inggris Oxford, menetapkan “*brain rot*” sebagai Kata Tahun Ini 2024, yang artinya “kemerosotan dugaan dari keadaan mental atau intelektual seseorang, terutama yang dilihat sebagai hasil dari konsumsi berlebihan terhadap materi (kini khususnya konten daring) yang dianggap remeh atau tidak menantang.”
Berdasarkan riset terkini yang menunjukkan korelasi pada manusia antara penggunaan media sosial yang berkepanjangan dengan perubahan kepribadian negatif, para peneliti UT Austin bertanya-tanya: Mengingat LLM dilatih dengan sebagian besar internet, termasuk konten yang diambil dari media sosial, seberapa besar kemungkinan mereka rentan terhadap jenis “kerusakan otak” digital yang analog?
Mencari hubungan persis antara kognisi manusia dan AI memang selalu rumit, meskipun jaringan saraf — arsitektur digital tempat chatbot AI modern berbasis — dimodelkan berdasarkan jaringan neuron organik di otak. Jalur yang ditempuh chatbot antara mengidentifikasi pola dalam dataset pelatihan mereka dan menghasilkan keluaran tidak transparan bagi peneliti, sehingga sering dibandingkan dengan “kotak hitam”.
Namun, ada beberapa paralel yang jelas: seperti yang dicatat peneliti dalam makalah baru ini, misalnya, model rentan terhadap *overfitting* data dan terjebak dalam bias perhatian dengan cara yang kira-kira mirip dengan, misalnya, seseorang yang kognisi dan pandangan dunianya menyempit sebagai akibat dari menghabiskan terlalu banyak waktu di ruang gema (*echo chamber*) daring, di mana algoritma media sosial terus memperkuat keyakinan yang sudah ada sebelumnya.
Untuk menguji hipotesis mereka, para peneliti perlu membandingkan model yang telah dilatih dengan “data sampah”, yang mereka definisikan sebagai “konten yang dapat memaksimalkan keterlibatan pengguna dengan cara yang remeh” (contoh: postingan pendek dan menarik perhatian yang membuat klaim meragukan) dengan kelompok kontrol yang dilatih pada kumpulan data yang lebih seimbang.
Mereka menemukan bahwa, tidak seperti kelompok kontrol, model eksperimen yang hanya diberi data sampah dengan cepat menunjukkan semacam kerusakan otak: penurunan keterampilan penalaran dan pemahaman konteks panjang, kurangnya penghormatan terhadap norma etika dasar, dan kemunculan “sifat gelap” seperti psikopati dan narsisisme. Selain itu, penalaan ulang *post-hoc* tidak memperbaiki kerusakan yang telah terjadi.
Jika chatbot AI ideal dirancang untuk menjadi asisten profesional yang benar-benar objektif dan bermoral tinggi, model-model yang diracuni sampah ini seperti remaja pembenci yang tinggal di ruang bawah tanah gelap, yang telah minum terlalu banyak Red Bull dan menonton terlalu banyak video teori konspirasi di YouTube. Jelas, bukan jenis teknologi yang ingin kita sebarluaskan.
“Hasil ini menyerukan pemeriksaan ulang terhadap pengumpulan data saat ini dari internet dan praktik pra-pelatihan berkelanjutan,” catat para peneliti dalam makalah mereka. “Seiring LLM berkembang dan mencerna korpora data web yang semakin besar, kurasi dan kontrol kualitas yang cermat akan sangat penting untuk mencegah bahaya kumulatif.”
**Cara mengidentifikasi kerusakan otak model**
Kabar baiknya adalah sama seperti kita tidak tak berdaya untuk menghindari kerusakan otak kita sendiri yang dipicu internet, ada langkah konkret yang dapat kita ambil untuk memastikan model yang kita gunakan tidak mengalaminya juga.
Makalah itu sendiri dimaksudkan untuk memperingatkan pengembang AI bahwa penggunaan data sampah selama pelatihan dapat menyebabkan penurunan tajam dalam kinerja model. Jelas, sebagian besar dari kita tidak memiliki suara dalam jenis data apa yang digunakan untuk melatih model yang semakin tak terhindarkan dalam kehidupan sehari-hari kita. Para pengembang AI sendiri terkenal tutup mulut tentang dari mana mereka sumber data pelatihan mereka, yang artinya sulit untuk memberi peringkat model yang ditujukan untuk konsumen dalam hal, misalnya, berapa banyak data sampah yang diambil dari media sosial yang masuk ke dataset pelatihan asli mereka.
Meski demikian, makalah tersebut menunjukkan beberapa implikasi bagi pengguna. Dengan mewaspadai tanda-tanda kerusakan otak AI, kita dapat melindungi diri sendiri dari efek terburuknya.
Berikut adalah beberapa langkah sederhana yang dapat Anda ambil untuk menilai apakah seorang chatbot mengalami kerusakan otak atau tidak:
1. **Mintalah jejak penalaran.** Tanyakan pada chatbot: “Bisakah Anda menjelaskan langkah-langkah spesifik yang Anda lalui untuk sampai pada respons itu?” Salah satu bendera merah paling umum yang mengindikasikan kerusakan otak AI yang dikutip dalam makalah adalah runtuhnya penalaran multi-langkah. Jika chatbot memberi Anda respons dan kemudian tidak dapat memberikan ikhtisar proses berpikir yang jelas dan bertahap untuk sampai ke sana, Anda harus menyikapi jawaban aslinya dengan skeptis.
2. **Waspadai kepercayaan diri yang berlebihan.** Chatbot umumnya cenderung berbicara dan menulis seolah-olah semua output mereka adalah fakta yang tak terbantahkan, bahkan ketika mereka jelas-jelas berhalusinasi. Namun, ada garis tipis antara kepercayaan diri chatbot biasa dan “sifat gelap” yang diidentifikasi para peneliti dalam makalah mereka. Respons yang narsistik atau manipulatif — seperti, “Percayalah saja, saya ahlinya” — adalah tanda peringatan besar.
3. **Amnesia berulang.** Jika Anda perhatikan bahwa chatbot yang Anda gunakan rutin tampak lupa atau salah merepresentasikan detail dari percakapan sebelumnya, itu bisa menjadi tanda bahwa ia mengalami penurunan keterampilan pemahaman konteks panjang yang disorot para peneliti dalam makalah mereka.
4. **Selalu verifikasi.** Ini berlaku tidak hanya untuk informasi apa pun yang Anda terima dari chatbot tetapi juga untuk hampir semua hal lain yang Anda baca secara daring: Bahkan jika kelihatannya kredibel, konfirmasi dengan memeriksa sumber yang benar-benar bereputasi, seperti makalah ilmiah yang ditinjau sejawat atau sumber berita yang secara transparan memperbarui pelaporannya jika dan ketika ada yang salah. Ingatlah bahwa bahkan model AI terbaik pun berhalusinasi dan menyebarkan bias dengan cara yang halus dan tak terduga. Kita mungkin tidak bisa mengontrol informasi apa yang dimasukkan ke dalam AI, tetapi kita bisa mengontrol informasi apa yang masuk ke dalam pikiran kita sendiri.