Chatbots sebagai alat pembelajaran: Hambatan dan peluang

Entah di bidang kesehatan atau industri – atau sesuatu yang sepele seperti membuat ucapan ulang tahun yang dipersonalisasi – kecerdasan buatan (AI) kini menjadi bagian dari kehidupan sehari-hari banyak orang. Bagaimana dengan pendidikan tinggi? Bisakah AI dalam bentuk model bahasa besar (LLM) seperti chatbot ChatGPT digunakan untuk mempersiapkan ujian? Dan apakah diizinkan? Ambil contoh Jerman. Sebagian besar universitas di sana baru mulai menyusun pedoman atau petunjuk terkait AI, kata Jens Tobor, manajer proyek Forum Universitas untuk Digitalisasi (HFD) di Pusat Pendidikan Tinggi (CHE) di Gütersloh. Mereka sebagian besar hanya rekomendasi dan belum mengikat, catatnya, terutama mengingat banyak area abu-abu yang ditinggalkan oleh persetujuan baru-baru ini atas Undang-Undang Kecerdasan Buatan Uni Eropa, yang pertama kali ada di dunia. Seperti yang disoroti oleh Jannica Budde, manajer proyek senior HFD, \”Berbeda dengan ujian itu sendiri, apa pun yang Anda nikmati dan berhasil untuk Anda dalam mempersiapkan diri untuk mereka diizinkan untuk sementara waktu.\” Namun penting untuk menyadari, tambahnya, bahwa ChatGPT adalah model bahasa, bukan model pengetahuan, sehingga \”Anda harus menyadari bahwa informasinya mungkin salah.\” “Di samping perlindungan data dan hak cipta, belum ada kerangka hukum yang mengikat yang bisa diikuti oleh universitas,” kata Tobor. Hukum ini adalah rintangan terbesar dalam memanfaatkan AI sebagai asisten belajar pribadi, namun, karena mahasiswa pertama harus memberi model dengan pengetahuan yang mereka butuhkan untuk suatu mata pelajaran tertentu. Termasuk materi pembelajaran berhak cipta atau ujian lama adalah masalah. \”Itu akan menjadi reproduksi dan mungkin ilegal,\” kata Tobor, yang mengatakan bahwa belum jelas apakah, dan sejauh mana, perusahaan AI di balik aplikasi perangkat lunak lebih lanjut memproses data yang dimasukkan. Sebagai gantinya, ia merekomendasikan menggunakan chatbot sebagai mitra dialog Socratic. Misalnya, ChatGPT mengajukan pertanyaan reflektif, yang diprediksikan secara individu kepada siswa tentang seperangkat fakta, dan memeriksa apakah siswa telah memahaminya. \”Keindahan ini adalah AI tidak memberikan informasi yang mencurigakan, melainkan mempromosikan tinjauan yang lebih mendalam – dan oleh karena itu lebih mendukung pembelajaran – tentang materi pelajaran,\” kata Tobor. Katharina Opper, seorang ilmuwan pendidikan dan pengembang e-learning, memiliki pengalaman dengan metode ini. Digunakan oleh filsuf Yunani kuno Socrates, itu melibatkan \”mengajukan pertanyaan tanpa memberikan jawaban,\” tulis Opper. Dia telah mengembangkan sebuah prompt yang memungkinkan AI untuk mengajukan pertanyaan tertentu dan dengan demikian mendorong pemikiran independen. Orang yang memasukkan prompt diminta apa topik pembicaraannya, dan kemudian dialog dapat dimulai. Pendekatan ini, kata Opper, kurang rentan terhadap informasi yang salah karena tidak ada informasi yang diberikan yang dapat diadopsi secara kurang kritis. Sedikit latar belakang: Chatbot yang didukung oleh LLM, seperti ChatGPT, rentan terhadap \”halusinasi,\” yaitu, generasi kebohongan yang terdengar masuk akal. Hal ini terjadi karena, mengandalkan pola dalam data pelatihannya yang luas, mereka hanya memprediksi kemungkinan kata berikutnya dalam sebuah kalimat yang diberikan. Juga mungkin untuk membuat ChatGPT bertingkah bodoh, misalnya, dan membuat siswa menjelaskan materi pelajaran kepada itu. \”Proses ini juga mengkonsolidasikan pembelajaran,\” kata Tobor. Chatbot diberi peran sebagai, katakanlah, sesama mahasiswa yang tidak tahu tentang subjek dan diberitahu apa yang perlu diketahuinya. Pilihan lain adalah membuat chatbot mengajukan pertanyaan ujian yang harus dijawab siswa. \”AI dapat melakukannya cukup baik, tetapi jumlah informasi yang salah yang diberikannya tentang pengetahuan ujian berbasis fakta masih cukup besar,\” kata Malte Persike, direktur ilmiah Pusat Layanan Pengajaran dan Pembelajaran di Universitas RWTH Aachen di Jerman. \”Dalam hal konten dan pengetahuan khusus, terutama angka dan tanggal, saya akan memperingatkan semua orang untuk tidak mengandalkan AI,\” katanya. Meskipun hasilnya jauh lebih baik jika AI dikaitkan dengan bank data dari mana ia mengambil konten khusus, informasi yang salah masih mungkin. \”Ini bisa terjadi karena pertanyaan salah dipahami dan informasi yang benar tidak diakses dari bank data, atau informasi dari bank data tidak dipahami,\” jelas Persike. Jika Anda ingin mengunduh dokumen dari ruang belajar digital sebagai file PDF dan memuatnya kembali ke AI, Anda akan menemui batasan hak cipta yang disebutkan di atas – tetapi hanya jika Anda menggunakan sistem komersial. Menurut Persike, sekarang ada alat AI yang dapat Anda instal di laptop sendiri yang berjalan secara lokal dan tidak mentransfer data apa pun ke internet. \”Dengan segala kemungkinan, ini akan sah secara hukum,\” katanya. Model-model ini sejauh ini kurang kualitas dan kapasitas ChatGPT-4, \”tetapi jika Anda ingin mitra dialog, kualitas alternatif sumber terbuka bagus.\” Apakah kita diizinkan atau tidak diizinkan menggunakan kecerdasan buatan sebagai bantuan belajar? Banyak universitas belum memiliki regulasi yang tepat tentang hal ini. Markus Hibbeler/dpa

MEMBACA  Juru bicara partai AfD sayap kanan jauh Jerman memegang pekerjaan di akademi Rusia.