Masalah Cyborg AI: Peluk agar Sukses, Namun 90% Tak Mampu atau Tak Mau

Beberapa minggu yang lalu, saya jadi terkenal sekejap karena alasan yang salah.

The Wall Street Journal nulis artikel tentang cara saya pakai AI sebagai editor di Fortune — bikin draf, merangkum wawancara, dan percepat proses reportase yang dulu butuh waktu dua kali lipat. Reaksinya cepat, keras, dan kacau. “Komunitas jurnalisme” terpecah: para editor bersemangat, para reporter mundur. Orang asing di internet manggil saya pemalas. Beberapa jurnalis bilang diam-diam mereka melakukan hal yang sama tapi gak akan pernah ngaku. Satu pembaca minta ketemuan ngopi cuma untuk jelasin kenapa saya salah.

Saya gak nyangka. Mungkin saya pikir bakal ada rasa penasaran. Tapi yang saya dapat terasa lebih tua dan lebih personal dari debat etika jurnalistik — lebih kayak tatapan waktu rekan kerja nemuin cara pintas dan gak mau bagi ilmunya.

Sejak itu saya coba paham reaksi itu. Orang yang akhirnya kasih saya kerangka buat memahaminya bukanlah kritikus media atau profesor jurnalisme. Dia seorang ahli saraf yang udah 30 tahun menghubungkan AI dengan manusia.

Eksperimen itu

Karir Vivienne Ming dimulai tahun 1999, saat tesis sarjananya — sistem analisis wajah yang dilatih bedain senyum asli sama palsu, yang katanya didanai sebagian oleh CIA untuk penelitian deteksi kebohongan — mengenalkannya pada machine learning sebelum kebanyakan orang dengar istilah itu. Dia lalu bikin salah satu sistem AI pembelajaran pertama yang ditanam di implan koklea, model yang belajar mendengar di dalam otak manusia yang juga belajar mendengar. Dia sejak itu dirikan perusahaan yang terapkan AI untuk bias perekrutan, riset Alzheimer, dan depresi pasca-melahirkan. Selama tiga dekade, misinya adalah ambil teknologi yang salah dipahami kebanyakan orang dan cari cara bikin dunia lebih baik.

MEMBACA  Roket kuda kerja SpaceX sedang dilanda masalah. Inilah alasan mengapa

Tahun lalu, dia jalani eksperimen yang dapat banyak perhatian karena apa yang dia sebut “kesenjangan kognitif” dan bahkan “krisis demensia.” Tapi dia bilang ini memperjelas sesuatu yang lama dia curigai.

Ming rekrut tim mahasiswa UC Berkeley buat pakai alat AI memprediksi hasil dunia nyata di Polymarket — bursa ramalan di mana profesional dengan uang asli bertaruh pada peristiwa geopolitik, harga komoditas, dan indikator ekonomi. Tugasnya dirancang khusus agar gak bisa dikerjakan dari ingatan: belajar sebanyak apapun gak bakal ngasih tahu harga minyak dalam enam bulan. Dia mau liat bukan apakah AI membantu, tapi bagaimana manusia menggunakannya — dan apa itu ungkap tentang manusianya sendiri.

Dia juga pasang monitor EEG ke beberapa peserta.

Apa yang ditunjukkan pemindaian otak, bahkan sebelum dia analisis data perilaku sepenuhnya, adalah sesuatu seperti film Marvel. Saat kebanyakan siswa ngasih pertanyaan ke AI dan kirim jawabannya, aktivitas gelombang gamma mereka — tanda neurologis keterlibatan kognitif—turun sekitar 40%. Setara kayak dari kerjain soal mtk susah ke nonton TV. Mereka mahasiswa pintar di universitas top. Dengan alat AI paling canggih, mereka jadi, kata dia, “mesin copy-paste yang mahal banget dan butuh asuransi kesehatan."

Dia sebut kelompok ini automator. . They the majority.Suatu kelompok kedua — validator — menggunakan AI secara berbeda: untuk mengkonfirmasi apa yang mereka sudah percaya. Mereka memilih bukti mendukung, abaikan sanggahan, kirim jawaban yang lebih mencerminkan keyakinan diri sendiri dibanding data. Kinerjamenjadi – lebih jelek dibanding AI yang beropeasi sendiri.

24 Lain ( 05)? lalu ada kelompok ketiga

Tinggalkan komentar