Hill Street Studios / Getty Images
Semakin sulit untuk menghindari teknologi buatan (AI) karena semakin umum. Contoh utamanya adalah pencarian Google yang menampilkan respons AI. Keselamatan AI lebih penting daripada sebelumnya di era ketidakberaturan teknologi ini. Jadi sebagai pengguna AI, bagaimana cara menggunakan generative AI (Gen AI) dengan aman?
Juga: Ini alasan mengapa Anda harus mengabaikan 99% dari alat AI – dan empat yang saya gunakan setiap hari
Asisten profesor Sekolah Ilmu Komputer Carnegie Mellon, Maarten Sap dan Sherry Tongshuang Wu, berbicara di panggung SXSW untuk memberitahu orang tentang kekurangan model bahasa besar (LLMs), jenis model pembelajaran mesin di balik alat AI generatif populer, seperti ChatGPT, dan bagaimana orang dapat memanfaatkan teknologi ini lebih efektif.
“Mereka bagus, dan mereka ada di mana-mana, tetapi sebenarnya jauh dari sempurna,” kata Sap.
Penyesuaian yang dapat Anda terapkan dalam interaksi sehari-hari Anda dengan AI sederhana. Mereka akan melindungi Anda dari kekurangan AI dan membantu Anda mendapatkan lebih banyak dari chatbot AI, termasuk respons yang lebih akurat. Lanjutkan membaca untuk mempelajari tentang lima hal yang dapat Anda lakukan untuk mengoptimalkan penggunaan AI Anda, menurut para ahli.
1. Berikan instruksi yang lebih baik kepada AI
Karena kemampuan konversasional AI, orang sering menggunakan instruksi yang kurang spesifik, seperti mengobrol dengan teman. Masalahnya adalah ketika di bawah instruksi, sistem AI mungkin menafsirkan makna instruksi teks Anda dengan salah, karena mereka kurang memiliki keterampilan manusia yang memungkinkan mereka untuk membaca di antara baris.
Untuk mengilustrasikan masalah ini, dalam sesi mereka, Sap dan Wu memberi tahu chatbot bahwa mereka sedang membaca satu juta buku, dan chatbot itu menganggapnya secara literal daripada memahami bahwa orang tersebut berlebihan. Sap berbagi bahwa dalam penelitiannya, ia menemukan bahwa LLM modern kesulitan memahami referensi non-literal secara literal lebih dari 50% dari waktu.
Juga: Bisakah AI meningkatkan kreativitas tanpa mencuri dari seniman?
Cara terbaik untuk mengatasi masalah ini adalah dengan mengklarifikasi instruksi Anda dengan persyaratan yang lebih eksplisit yang meninggalkan sedikit ruang untuk interpretasi atau kesalahan. Wu menyarankan untuk memperlakukan chatbot sebagai asisten, memberikan instruksi yang jelas tentang apa yang Anda inginkan dilakukan. Meskipun pendekatan ini mungkin memerlukan lebih banyak pekerjaan saat menulis instruksi, hasilnya seharusnya lebih sesuai dengan kebutuhan Anda.
2. Periksa kembali respons Anda
Jika Anda pernah menggunakan chatbot AI, Anda tahu mereka sering mengkhayalkan, yang menggambarkan output informasi yang salah. Halusinasi dapat terjadi dalam berbagai cara, baik dengan mengeluarkan respons yang tidak akurat secara faktual, merangkum informasi yang diberikan dengan cara yang salah, atau setuju dengan fakta palsu yang dibagikan oleh pengguna.
Sap mengatakan halusinasi terjadi antara 1% dan 25% dari waktu untuk kasus penggunaan umum sehari-hari. Tingkat halusinasi bahkan lebih tinggi untuk domain yang lebih khusus, seperti hukum dan kedokteran, mencapai lebih dari 50%. Halusinasi ini sulit untuk dikenali karena disajikan dengan cara yang terdengar masuk akal, meskipun mereka tidak masuk akal.
Juga: Agen AI bukan hanya asisten: Bagaimana mereka mengubah masa depan kerja saat ini
Model sering mengonfirmasi kembali respons mereka, menggunakan penanda seperti “Saya yakin” bahkan saat menawarkan informasi yang salah. Sebuah makalah penelitian yang dikutip dalam presentasi mengatakan model AI yakin namun tidak benar tentang respons mereka 47% dari waktu.
Akibatnya, cara terbaik untuk melindungi diri dari halusinasi adalah dengan memeriksa kembali respons Anda. Beberapa taktik meliputi memverifikasi kembali output Anda dengan sumber eksternal, seperti Google atau media berita yang Anda percayai, atau bertanya lagi ke model, menggunakan perumusan yang berbeda, untuk melihat apakah AI mengeluarkan respons yang sama.
Meskipun menggoda untuk mendapatkan bantuan ChatGPT dengan subjek yang tidak Anda ketahui banyak, lebih mudah mengidentifikasi kesalahan jika instruksi Anda tetap dalam domain keahlian Anda.
3. Simpan data yang Anda pedulikan pribadi
Alat Gen AI dilatih dengan jumlah data yang besar. Mereka juga memerlukan data untuk terus belajar dan menjadi model yang lebih pintar, lebih efisien. Akibatnya, model sering menggunakan output mereka untuk pelatihan lebih lanjut.
Juga: Benchmark AI baru ini mengukur seberapa banyak model berbohong
Masalahnya adalah model sering meniru data pelatihan mereka dalam respons mereka, yang berarti informasi pribadi Anda bisa digunakan dalam respons orang lain, mengekspos data pribadi Anda kepada orang lain. Ada juga risiko saat menggunakan aplikasi web karena informasi pribadi Anda meninggalkan perangkat Anda untuk diproses di cloud, yang memiliki implikasi keamanan.
Cara terbaik untuk menjaga kebersihan AI yang baik adalah dengan menghindari berbagi data sensitif atau pribadi dengan LLMs. Akan ada beberapa kasus di mana bantuan yang Anda inginkan mungkin melibatkan penggunaan data pribadi. Anda juga dapat menyensor data ini untuk memastikan Anda mendapatkan bantuan tanpa risiko. Banyak alat AI, termasuk ChatGPT, memiliki opsi yang memungkinkan pengguna untuk memilih keluar dari pengumpulan data. Memilih keluar selalu merupakan pilihan yang baik, bahkan jika Anda tidak berencana menggunakan data sensitif.
4. Perhatikan cara Anda berbicara tentang LLMs
Kemampuan sistem AI dan kemampuan berbicara dengan alat ini menggunakan bahasa alami telah membuat beberapa orang overestimate kekuatan bot ini. Antropomorfisme, atau atribusi karakteristik manusia, adalah sebuah hal yang licin. Jika orang menganggap sistem AI ini seperti manusia, mereka mungkin percaya pada mereka dengan lebih banyak tanggung jawab dan data.
Juga: Mengapa alat AI baru OpenAI bisa mengubah cara Anda coding
Salah satu cara untuk membantu mengurangi masalah ini adalah dengan menghentikan atribusi karakteristik manusia pada model AI ketika merujuk pada mereka, menurut para ahli. Alih-alih mengatakan, “model berpikir Anda menginginkan respons seimbang,” Sap menyarankan alternatif yang lebih baik: “Model dirancang untuk menghasilkan respons seimbang berdasarkan data pelatihannya.”
5. Pikirkan dengan hati-hati kapan menggunakan LLMs
Meskipun mungkin sepertinya model-model ini dapat membantu dengan hampir setiap tugas, ada banyak kasus di mana mereka mungkin tidak dapat memberikan bantuan terbaik. Meskipun benchmark tersedia, mereka hanya mencakup sebagian kecil dari bagaimana pengguna berinteraksi dengan LLMs.
Juga: Bahkan alat AI premium mengubah berita dan membuat tautan palsu – ini yang terburuk
LLMs mungkin juga tidak bekerja sebaiknya untuk semua orang. Selain halusinasi yang dibahas di atas, telah tercatat kasus di mana LLMs membuat keputusan rasialis atau mendukung bias Barat. Bias ini menunjukkan bahwa model mungkin tidak cocok untuk membantu dalam banyak kasus penggunaan.
Akibatnya, solusinya adalah berpikir dan berhati-hati saat menggunakan LLMs. Pendekatan ini termasuk mengevaluasi dampak penggunaan LLM untuk menentukan apakah itu solusi yang tepat untuk masalah Anda. Juga membantu untuk melihat model mana yang unggul dalam tugas tertentu dan menggunakan model terbaik untuk kebutuhan Anda.