AI generatif tidak belajar apa pun dari Web 2.0

Jika tahun 2022 adalah tahun dimulainya booming AI generatif, tahun 2023 adalah tahun kepanikan AI generatif. Hanya dalam waktu lebih dari 12 bulan sejak OpenAI merilis ChatGPT dan mencetak rekor sebagai produk konsumen dengan pertumbuhan tercepat, tampaknya juga membantu mencetak rekor untuk intervensi pemerintah tercepat dalam teknologi baru. Komisi Pemilihan Federal AS sedang menyelidiki iklan kampanye yang menyesatkan, Kongres meminta pengawasan terhadap bagaimana perusahaan AI mengembangkan dan memberi label data pelatihan untuk algoritma mereka, dan Uni Eropa mengesahkan Undang-Undang AI baru dengan perubahan mendadak untuk merespons AI generatif.

Namun, meskipun terdapat unsur kebaruan dan kecepatan, masalah AI generatif juga sangat familiar. OpenAI dan pesaingnya yang berlomba-lomba meluncurkan model AI baru menghadapi masalah yang telah menghantui platform sosial, teknologi baru yang membentuk era sebelumnya, selama hampir dua dekade. Perusahaan seperti Meta tidak pernah menangani dengan baik masalah misinformasi, praktik kerja yang meragukan, dan pornografi tanpa persetujuan, hanya beberapa contoh dari konsekuensi yang tidak disengaja. Sekarang masalah-masalah tersebut mendapatkan tantangan baru yang sulit, dengan sentuhan AI.

“Masalah-masalah ini sepenuhnya dapat diprediksi,” kata Hany Farid, seorang profesor di UC Berkeley School of Information, tentang masalah-masalah yang dihadapi oleh OpenAI dan yang lainnya. “Menurut saya, ini bisa dicegah.”

Jalur yang Sudah Dilewati

Dalam beberapa kasus, perusahaan AI generatif dibangun langsung di atas infrastruktur bermasalah yang dibangun oleh perusahaan media sosial. Facebook dan perusahaan lain mengandalkan pekerja moderasi konten dengan upah rendah yang dioutsourcing—seringkali di negara-negara di Selatan Dunia—untuk menjaga konten seperti ujaran kebencian atau gambar dengan kekerasan atau kecabulan tetap terkendali.

Tenaga kerja yang sama sekarang digunakan untuk membantu melatih model AI generatif, seringkali dengan upah rendah dan kondisi kerja yang sulit. Karena outsourcing menempatkan fungsi penting dari platform sosial atau perusahaan AI secara administratif jauh dari kantor pusatnya, dan seringkali di benua lain, para peneliti dan regulator kesulitan mendapatkan gambaran lengkap tentang bagaimana sistem AI atau jaringan sosial dibangun dan diatur.

MEMBACA  Baca lebih banyak buku dengan Headway Premium, dijual seharga $60

Outsourcing juga dapat menyembunyikan di mana kecerdasan sebenarnya dalam produk tersebut berada. Ketika suatu konten menghilang, apakah itu dihapus oleh algoritme atau salah satu dari ribuan moderator manusia? Ketika chatbot layanan pelanggan membantu pelanggan, seberapa besar pujian yang layak diberikan kepada AI dan seberapa besar kepada pekerja di pusat outsourcing yang panas?

Ada juga kesamaan dalam cara perusahaan AI dan platform sosial merespons kritik terhadap efek buruk atau tidak disengaja mereka. Perusahaan AI berbicara tentang menerapkan “perlindungan” dan kebijakan “penggunaan yang dapat diterima” pada model AI generatif tertentu, sama seperti platform memiliki ketentuan layanan seputar konten yang diperbolehkan dan tidak. Seperti halnya aturan jaringan sosial, kebijakan dan perlindungan AI juga relatif mudah untuk dihindari.