Penyalahgunaan Manusia Akan Membuat Kecerdasan Buatan Lebih Berbahaya

CEO OpenAI Sam Altman memperkirakan AGI, atau kecerdasan buatan umum—AI yang melampaui manusia dalam kebanyakan tugas—sekitar tahun 2027 atau 2028. Prediksi Elon Musk adalah 2025 atau 2026, dan ia telah mengklaim bahwa dia “kehilangan tidur karena ancaman bahaya AI.” Prediksi seperti itu salah. Ketika keterbatasan AI saat ini semakin jelas, sebagian besar peneliti AI telah berpendapat bahwa hanya membangun chatbot yang lebih besar dan lebih kuat tidak akan mengarah ke AGI.

Namun, pada tahun 2025, AI masih akan membawa risiko besar: bukan dari kecerdasan buatan super, tetapi dari penyalahgunaan manusia.

Ini mungkin merupakan penyalahgunaan tidak disengaja, seperti pengacara yang terlalu bergantung pada AI. Setelah rilis ChatGPT, misalnya, sejumlah pengacara telah disanksi karena menggunakan AI untuk menghasilkan keterangan pengadilan yang salah, tampaknya tidak menyadari kecenderungan chatbot untuk membuat cerita. Di British Columbia, pengacara Chong Ke diperintahkan membayar biaya untuk konsel lawan setelah dia menyertakan kasus-kasus AI fiktif dalam pengajuan hukum. Di New York, Steven Schwartz dan Peter LoDuca didenda $5.000 karena memberikan kutipan palsu. Di Colorado, Zachariah Crabill dihentikan selama setahun karena menggunakan kasus pengadilan fiktif yang dihasilkan menggunakan ChatGPT dan menyalahkan “magang hukum” atas kesalahan tersebut. Daftar ini berkembang dengan cepat.

Penyalahgunaan lainnya adalah sengaja. Pada Januari 2024, deepfake eksplisit seksual dari Taylor Swift membanjiri platform media sosial. Gambar-gambar ini dibuat menggunakan alat AI Microsoft “Designer.” Meskipun perusahaan tersebut memiliki pagar untuk menghindari menghasilkan gambar orang sungguhan, salah mengeja nama Swift cukup untuk melewati mereka. Microsoft sejak itu memperbaiki kesalahan ini. Tetapi Taylor Swift hanyalah puncak gunung es, dan deepfake tanpa persetujuan sedang menyebar luas—sebagian karena alat sumber terbuka untuk membuat deepfake tersedia secara publik. Legislasi yang sedang berlangsung di seluruh dunia berupaya untuk melawan deepfake dengan harapan mengurangi kerusakan. Apakah itu efektif masih harus dilihat.

MEMBACA  Uber menguji layanan harga yang fleksibel di lebih dari satu lusin kota di India

Pada tahun 2025, akan semakin sulit untuk membedakan antara yang nyata dan yang dibuat-buat. Kesetiaan audio, teks, dan gambar yang dihasilkan AI sangat luar biasa, dan video akan menjadi berikutnya. Hal ini bisa mengarah pada “dividen pembohong”: mereka yang berada di posisi kekuasaan menolak bukti perilaku buruk mereka dengan alasan bahwa itu palsu. Pada 2023, Tesla berargumen bahwa video Elon Musk tahun 2016 bisa jadi deepfake sebagai tanggapan atas tuduhan bahwa CEO telah melebih-lebihkan keamanan Tesla autopilot yang menyebabkan kecelakaan. Seorang politisi India mengklaim bahwa klip audio yang menunjukkan dia mengakui korupsi dalam partainya telah dimanipulasi (audio dalam setidaknya salah satu klipnya diverifikasi sebagai nyata oleh outlet pers). Dan dua terdakwa dalam kerusuhan 6 Januari mengklaim bahwa video di mana mereka muncul adalah deepfake. Keduanya dinyatakan bersalah.

Sementara itu, perusahaan sedang memanfaatkan kebingungan publik untuk menjual produk yang pada dasarnya meragukan dengan menamainya “AI.” Hal ini dapat berjalan salah ketika alat-alat tersebut digunakan untuk mengklasifikasikan orang dan membuat keputusan penting tentang mereka. Perusahaan perekrutan Retorio, misalnya, mengklaim bahwa AI-nya dapat memprediksi kesesuaian kandidat berdasarkan wawancara video, tetapi sebuah studi menemukan bahwa sistem tersebut dapat ditipu hanya dengan kehadiran kacamata atau dengan mengganti latar belakang polos dengan rak buku, menunjukkan bahwa ia bergantung pada korelasi yang dangkal.

Ada puluhan aplikasi di bidang kesehatan, pendidikan, keuangan, keadilan pidana, dan asuransi di mana AI saat ini digunakan untuk menolak orang dari kesempatan hidup penting. Di Belanda, otoritas pajak Belanda menggunakan algoritma AI untuk mengidentifikasi orang yang melakukan penipuan kesejahteraan anak. Ia secara salah menuduh ribuan orang tua, seringkali menuntut agar membayar kembali puluhan ribu euro. Dalam akibatnya, Perdana Menteri dan seluruh kabinetnya mengundurkan diri.

MEMBACA  Gedung Putih mulai memposting di Reddit untuk membahas Topan Milton

Pada tahun 2025, kami mengharapkan risiko AI muncul bukan karena AI bertindak sendiri, tetapi karena apa yang dilakukan orang dengannya. Ini termasuk kasus di mana tampaknya berjalan lancar dan terlalu bergantung padanya (pengacara menggunakan ChatGPT); ketika berjalan lancar dan disalahgunakan (deepfake non-consensual dan dividen pembohong); dan ketika ia tidak sesuai untuk tujuan tertentu (mengabaikan hak-hak orang). Mengurangi risiko tersebut adalah tugas berat bagi perusahaan, pemerintah, dan masyarakat. Ini akan sulit tanpa terganggu oleh kekhawatiran fiksi ilmiah.

Tinggalkan komentar