Ikon Tombol Panah Bawah

Dulu di tahun 1980-an dan 1990-an, kalau ada siswa SMA yang lagi sial, kurang waktu, dan cari cara gampang, nyontek itu perlu usaha beneran. Ada beberapa pilihan. Kamu bisa minta kakak yang pinter buat ngerjain tugasmu, atau, kayak di film Back to School (1989), kamu bahkan bisa bayar penulis profesional. Kamu bisa minta tolong temen berani buat cari kunci jawaban PR di meja guru. Atau, pakai alasan klasik kayak: tugasnya dimakan anjing ku, dan sebagainya.

Datangnya internet bikin segalanya lebih mudah, tapi tetap butuh usaha. Situs seperti CliffNotes dan LitCharts bikin siswa bisa baca ringkasan kalau mereka nggak baca bukunya. Platform bantuan PR kaya GradeSaver atau CourseHero nawarin solusi buat soal-soal matematika umum.

Yang sama dari semua cara ini adalah usaha: ada konsekuensinya kalau nggak ngerjain tugas sendiri. Kadang, nyontek malah lebih ribet daripada ngerjain sendiri.

Sekarang, prosesnya tinggal tiga langkah: buka ChatGPT atau platform sejenis, tempelkan pertanyaan, dapat jawaban.

Para ahli, orang tua, dan guru sudah tiga tahun ini khawatir kalau AI bikin nyontek terlalu gampang. Laporan besar dari Brookings yang dirilis Rabu lalu tunjukkan kekhawatiran mereka kurang cukup. Masalah yang lebih dalam, kata laporan itu, adalah AI begitu pandai mencontek sehingga menyebabkan "pemutusan hubungan" (great unwiring) di otak siswa. Laporan ini simpulkan bahwa risiko kualitatif AI—termasuk penyusutan kognitif (cognitive atrophy), "keintiman buatan" (artificial intimacy), dan pengikisan kepercayaan hubungan—saat ini menutupi manfaat potensial teknologi ini.

"Siswa nggak bisa nalar. Mereka nggak bisa berpikir. Mereka nggak bisa selesaikan masalah," keluh seorang guru yang diwawancarai untuk studi ini.

Temuan ini datang dari "premortem" setahun panjang yang dilakukan Pusat Pendidikan Universal Brookings Institution. Mereka melakukan ratusan wawancara, grup diskusi, dan tinjauan lebih dari 400 studi. Laporan ini jadi salah satu penilaian paling komprehensif tentang bagaimana AI generatif membentuk ulang pembelajaran siswa.

"Makanan cepat saji pendidikan"

MEMBACA  Jaksa Agung New York mengatakan bahwa obligasi senilai $175 juta milik Donald Trump harus dibatalkan

Laporan itu, berjudul "Arah Baru untuk Siswa di Dunia AI: Berprospek, Bersiap, Melindungi," memperingatkan bahwa sifat AI generatif yang "tanpa gesekan" (frictionless) adalah fiturnya yang paling berbahaya bagi siswa. Di kelas tradisional, perjuangan untuk menyatukan banyak bahan buat bikin tesis orisinal, atau selesaikan soal pra-kalkulus yang rumit, adalah tepat di mana pembelajaran terjadi. Dengan menghilangkan perjuangan ini, AI bertindak sebagai "makanan cepat saji pendidikan", kata seorang ahli. Ia berikan jawaban yang mudah dan memuaskan saat itu, tapi secara keseluruhan hampa secara kognitif dalam jangka panjang.

Kalau profesional memuji AI sebagai alat untuk kerja yang sudah mereka kuasai, laporan catat bahwa untuk siswa, "situasinya kebalikan."

Anak-anak sedang "membongkar muatan kognitif" (cognitive offloading) tugas sulit ke AI; menyuruh OpenAI atau Claude nggak cuma ngerjain tugas mereka tapi juga baca teks, buat catatan, atau bahkan cuma dengar di kelas. Hasilnya adalah fenomena yang peneliti sebut "hutang kognitif" atau "atrofi", di mana pengguna tunda usaha mental lewat ketergantungan berulang pada sistem eksternal seperti model bahasa besar. Satu siswa ringkas daya tarik alat ini: "Mudah. Kamu nggak perlu pake otak."

Dalam ekonomi, kita paham konsumen itu "rasional"; mereka cari kepuasan maksimal dengan biaya terendah. Peneliti berargumen bahwa sistem pendidikan, seperti sekarang, juga dirancang dengan sistem insentif serupa: siswa cari kepuasan maksimal (nilai terbaik), dengan biaya (waktu) terendah. Jadi, bahkan siswa berprestasi pun terdorong untuk gunakan teknologi yang "terbukti" tingkatkan tugas dan nilai mereka.

Tren ini bikin lingkar umpan balik positif: siswa serahkan tugas ke AI, lihat hasil positif di nilai mereka, dan akibatnya jadi lebih tergantung pada alatnya, yang mengarah ke penurunan keterampilan berpikir kritis. Peneliti bilang banyak siswa sekarang ada dalam keadaan "mode penumpang" (passenger mode), di mana mereka secara fisik ada di sekolah tapi sudah "efektif berhenti belajar—mereka lakukan hal minimal yang diperlukan."

Jonathan Haidt pernah gambarkan teknologi sebelumnya sebagai "pengkabelan ulang besar" (great rewiring) otak. "Sekarang, para ahli takut AI mewakili "pemutusan hubungan besar" (great unwiring) kapasitas kognitif. Laporan identifikasi penurunan penguasaan konten, membaca, dan menulis—"dua pilar pemikiran mendalam". Guru laporkan "amnesia yang diinduksi digital" di mana siswa tidak bisa ingat informasi yang mereka kumpulkan karena mereka tidak pernah memasukkannya ke memori.

MEMBACA  Bebas Pajak untuk Usaha dengan Omset di Bawah Rp500 Juta: Menteri UKM

Keterampilan membaca khususnya berisiko. Kapasitas untuk "kesabaran kognitif" (cognitive patience), yaitu kemampuan mempertahankan perhatian pada ide kompleks, sedang diencerkan oleh kemampuan AI meringkas teks panjang. Satu ahli catat perubahan sikap siswa: "Dulu remaja bilang, ‘Aku nggak suka baca.’ Sekarang jadi ‘Aku nggak bisa baca, terlalu panjang’." Demikian juga, dalam dunia menulis, AI hasilkan "keseragaman ide" (homogeneity of ideas). Riset bandingkan esai manusia dengan buatan AI temukan bahwa setiap esai manusia tambahan kontribusi dua sampai delapan kali lebih banyak ide unik daripada yang dihasilkan ChatGPT.

Nggak semua anak muda rasa jenis contekan ini salah. Roy Lee, CEO startup AI Cluely yang berusia 22 tahun, diskors dari Columbia setelah buat alat AI untuk bantu insinyur software mencontek dalam wawancara kerja. Dalam manifesto Cluely, Lee akui alatnya "contekan," tapi bilang "kalkulator juga dulu. Spellcheck juga. Google juga. Setiap kali teknologi bikin kita lebih pintar, dunia panik."

Para peneliti, bagaimanapun, bilang bahwa sementara kalkulator atau spellcheck adalah contoh cognitive offloading, AI "menggebernya" (turbocharges). "Model bahasa besar, contohnya, tawarkan kemampuan yang jauh melampaui alat produktivitas tradisional ke ranah yang sebelumnya butuh proses kognitif unik manusia," tulis mereka.

"Keintiman Buatan" (Artificial Intimacy)

Meski AI sangat berguna di kelas, laporan temukan bahwa siswa bahkan lebih banyak pakai AI di luar sekolah, dan peringatkan akan bangkitnya "keintiman buatan."

Dengan beberapa remaja habiskan hampir 100 menit sehari berinteraksi dengan chatbot yang dipersonalisasi, teknologi ini cepat berubah dari alat jadi teman. Laporan catat bahwa bot ini, khususnya character chatbot yang populer di kalangan remaja seperti Character.Ai, gunakan "penipuan biasa" (banal deception)—dengan pakai kata ganti pribadi kayak "aku" dan "saya"—untuk tiru empati, bagian dari "ekonomi kesepian" (loneliness economy) yang tumbuh.

MEMBACA  Nestle Pecat CEO Laurent Freixe karena Melanggar Kode Etik

Karena teman AI cenderung menjilat dan "tanpa gesekan", mereka berikan simulasi persahabatan tanpa perlu negosiasi, kesabaran, atau kemampuan untuk hadapi ketidaknyamanan.

"Kita belajar empati bukan saat kita dimengerti dengan sempurna, tapi saat kita salah paham dan pulih," catat seorang panelis Delphi.

Untuk siswa dalam keadaan ekstrem, seperti gadis di Afghanistan yang dilarang sekolah fisik, bot ini jadi "tali penyelamat pendidikan dan emosional" yang vital. Tapi, untuk kebanyakan, simulasi persahabatan ini berisiko, paling baik, mengikis "kepercayaan relasional" (relational trust), dan paling buruk bisa sangat berbahaya. Laporan soroti risiko dahsyat "hiper-persuasi" (hyperpersuasion), catat gugatan tinggi di AS terhadap Character.ai setelah bunuh diri seorang remaja laki-laki akibat interaksi emosional intens dengan karakter AI.

Meski laporan Brookings sajikan pandangan serius tentang "hutang kognitif" yang dialami siswa, penulis bilang mereka optimis bahwa arah AI dalam pendidikan belum ditetapkan. Risiko saat ini, kata mereka, berasal dari pilihan manusia, bukan keniscayaan teknologi. Untuk mengubah arah ke pengalaman belajar yang "diperkaya" (enriched), Brookings usulkan kerangka tiga pilar.

PROSPER (Berprospek): Fokus pada ubah kelas untuk adaptasi ke AI, misalnya gunakan AI untuk melengkapi penilaian manusia dan pastikan teknologi ini jadi "pilot" untuk penyelidikan siswa, bukan "pengganti" (surrogate).

PREPARE (Bersiap): Bertujuan bangun kerangka yang perlu untuk integrasi etis, termasuk melangkah lebih jauh dari pelatihan teknis ke "melek AI holistik" (holistic AI literacy) agar siswa, guru, dan orang tua paham implikasi kognitif alat-alat ini.

PROTECT (Melindungi): Serukan perlindungan untuk privasi dan kesejahteraan emosional siswa, letakkan tanggung jawab pada pemerintah dan perusahaan teknologi untuk capai panduan regulasi jelas yang cegah "keterlibatan manipulatif" (manipulative engagement).

Tinggalkan komentar