Hanya karena AI merekomendasikan tebing, tidak berarti Anda harus melompat

Ketika teknologi yang menarik menuju ke arah kita, kita cenderung terbawa oleh kegembiraan tersebut. Terutama ketika hal itu berkaitan dengan sesuatu yang dramatis seperti kecerdasan buatan. Selain itu: Gedung Putih berencana mengatur penggunaan kecerdasan buatan oleh pemerintah. Kecerdasan buatan bisa menulis ujian kita. Kecerdasan buatan bisa menulis iklan. Kecerdasan buatan bahkan bisa membuat film. Namun, masih ada pemikiran mengganggu bahwa kecerdasan buatan tidaklah sempurna, terutama ketika dalam hal halusinasi – saat-saat ketika kecerdasan buatan hanya membuat hal-hal yang tidak benar.

Namun, kesan yang ada adalah bahwa perusahaan seperti Google dan Microsoft berani menginjeksikan kecerdasan buatan ke dalam setiap aspek masyarakat.

Lalu, di mana kita bisa menemukan rasa – rasa yang sejati – dari apa yang masih perlu dilakukan terhadap kecerdasan buatan agar menjadi dapat dipercaya?

Saya mengaku bahwa saya telah melakukan pencarian tersebut untuk waktu yang cukup lama, sehingga saya tergerak untuk membaca berulang kali ungkapan kejujuran yang tulus dari Ayanna Howard, peneliti kecerdasan buatan dan dekan Fakultas Teknik di Universitas Negara Bagian Ohio. Menulis di MIT Sloan Management Review, Howard menawarkan ringkasan yang paling jelas mengenai kesenjangan antara teknolog dan, baik, semua orang lain.

Dia menawarkan pemikiran sederhana ini: “Teknolog tidak dilatih untuk menjadi ilmuwan sosial atau sejarawan. Kami berada di bidang ini karena kami menyukainya, dan kami biasanya positif tentang teknologi karena itu adalah bidang kami.”

Namun, ini, kata Howard dengan bijaksana, adalah masalahnya: “Kami tidak pandai membangun jembatan dengan orang lain yang bisa menerjemahkan apa yang kami lihat sebagai hal positif dan apa yang kami tahu sebagai beberapa hal negatif juga.”

MEMBACA  Anggota Parlemen Membentak HMRC karena Layanan Pelanggan yang 'Tidak Dapat Diterima'

Memang, ada kebutuhan yang mendesak untuk penerjemahan, kebutuhan yang mendesak bagi teknolog untuk memiliki sedikit lebih banyak kecerdasan emosional saat mereka menciptakan teknologi masa depan.

“Yang pertama – dan ini mungkin memerlukan regulasi – adalah bahwa perusahaan teknologi, khususnya yang bergerak dalam kecerdasan buatan dan kecerdasan generatif, perlu mencari cara untuk menggabungkan kecerdasan emosional manusia (EQ) dengan teknologi untuk memberikan petunjuk kepada orang kapan harus berpikir ulang mengenai alat tersebut,” kata Howard.

Pikirkan kembali pada awal-awal internet. Kami dibiarkan sendiri untuk mengetahui apa yang benar, apa yang dilebih-lebihkan dan apa yang sama sekali tidak benar. Kami sangat terexcite, tapi masih melangkah menuju tingkat kepastian. Howard menjelaskan bahwa selama sebuah teknologi tampak berfungsi, manusia pada umumnya akan mempercayainya. Meskipun, seperti dalam satu eksperimen yang dia ikuti, orang akan mengikuti robot secara buta menjauh dari tangga darurat saat kebakaran.

Dengan kecerdasan buatan, Howard menyarankan, ChatGPT dan sejenisnya seharusnya mengakui ketika mereka tidak yakin.

Hal ini tidak menghapus kebutuhan kita untuk waspada, namun pasti akan menciptakan tingkat kepercayaan yang lebih besar yang sangat penting jika kecerdasan buatan ingin diterima, daripada ditakuti atau dipaksakan.

Howard khawatir, saat ini, siapa pun bisa membuat produk kecerdasan buatan. “Kita memiliki penemu yang tidak tahu apa yang mereka lakukan yang menjual kepada perusahaan dan konsumen yang terlalu percaya,” katanya.

Jika kata-katanya tampak sebagai peringatan, mereka masih merupakan pengungkapan kebenaran murni yang luar biasa, tantangan yang terlibat dalam membawa teknologi yang potensial revolusioner ke dunia dan membuatnya dapat dipercaya.

Pada akhirnya, jika kecerdasan buatan tidak dapat dipercaya, maka tidak dapat menjadi teknologi yang dihype sebagaimana yang diklaim.

MEMBACA  Apa jadinya jika rencana Israel sebenarnya tidak ada 'esok hari' untuk Gaza sejak awal? | Konflik Israel-Palestina