Halo dan selamat datang di Eye on AI…
Edisi kali ini membahas: Biaya dari "workslop" AI… Investasi Nvidia di OpenAI… dan Google DeepMind melihat resiko AI baru.
Hai, ini Beatrice Nolan, menggantikan Jeremy Kahn yang sedang tidak masuk hari ini. Saya sudah banyak berpikir tentang janji produktivitas dari AI di tempat kerja, terutama setelah laporan MIT menemukan bahwa mayoritas percobaan AI di perusahaan-perusahaan tidak mencapai janji itu.
Dalam tahun terakhir, jumlah perusahaan yang menjalankan alur kerja penuh dengan AI hampir dua kali lipat, sementara penggunaan AI di tempat kerja juga meningkat dua kali lipat sejak 2023. Meski teknologi ini cepat diadopsi, sebuah studi dari MIT Media Lab masih menemukan bahwa 95% organisasi yang menggunakan AI tidak melihat hasil yang jelas dari investasi mereka.
Beberapa investor, yang sudah khawatir tentang "gelembung AI," melihat laporan ini sebagai bukti bahwa AI tidak berguna. Tapi, seperti yang Jeremy tunjukkan, laporan itu sebenarnya menyalahkan "kesenjangan belajar"—orang dan organisasi tidak paham cara menggunakan alat AI dengan benar—bukan pada masalah performa teknologi AI itu sendiri.
Penelitian baru menawarkan penjelasan lain: kehadiran AI di tempat kerja mungkin justru menurunkan produktivitas. Menurut survei dari BetterUp Labs bersama Stanford University, beberapa karyawan menggunakan AI untuk membuat "workslop" yang mudah, tapi butuh waktu lama untuk membereskannya.
Workslop, istilah dari peneliti berdasarkan "slop" dari AI di media sosial, artinya adalah konten kerja hasil AI yang terlihat seperti kerja bagus, tetapi tidak punya isi yang berarti untuk menyelesaikan tugas.
Keberadaan workslop sendiri bukan hal baru. Sudah ada laporan bahwa ini menciptakan ekonomi niche sendiri, dengan beberapa pekerja lepas dilaporkan diupah—sering dengan bayaran tinggi—untuk membersihkan tulisan, kode, dan gambar yang berantakan dari AI.
Yang ditunjukkan penelitian baru adalah betapa umum dan mahalnya workslop telah menjadi di dalam organisasi.
Biaya kerja hasil AI
Dari 1.150 karyawan penuh waktu di AS yang disurvei, 40% mengatakan mereka menemukan workslop dalam sebulan terakhir. Hampir setengah dari kerja berkualitas rendah ini dipertukarkan antar rekan kerja di level yang sama. 18% responden mengatakan mereka menerimanya dari bawahan langsung, sementara 16% mengatakan itu datang dari manajer atau atasan.
Alih-alih mempercepat alur kerja, "slop" hasil AI ini justru menciptakan lebih banyak pekerjaan, kata karyawan. Menurut penelitian, karyawan menghabiskan hampir dua jam untuk menangani setiap hasil kerja AI. Berdasarkan waktu dan gaji, peneliti menghitung workslop bisa membebani seorang karyawan $186 per bulan. Untuk organisasi dengan 10.000 pekerja, ini bisa berarti lebih dari $9 juta setahun yang hilang karena produktivitas berkurang.
Insiden ini juga berdampak pada semangat kerja. Karyawan melaporkan merasa kesal, bingung, dan tersinggung ketika menerima kerja yang tidak berkualitas. Menurut penelitian, setengah dari orang yang disurvei menganggap rekan yang menghasilkan workslop kurang kreatif, mampu, dan dapat diandalkan. Mereka juga dianggap kurang bisa dipercaya dan kurang cerdas.
Secara keseluruhan, karyawan yang menerima kerja berkualitas rendah menjadi kurang ingin berkolaborasi dengan rekan-rekannya.
Mengapa workslop terjadi
Tingkat tertentu dari AI-slop adalah hasil sampingan alami dari model AI saat ini. LLM dirancang untuk membuat konten dengan cepat dengan memprediksi kata atau pola berikutnya yang paling mungkin, bukan untuk menjamin keaslian atau wawasan yang bermakna. Model juga bisa berhalusinasi, yang dapat mempengaruhi keakuratan kerja hasil AI.
Tetapi penelitian baru ini menunjuk pada kurangnya pemahaman—atau perhatian—karyawan dalam menggunakan alat AI. Perintah dari pimpinan sering menekankan eksperimen tanpa panduan yang jelas. Dan sementara eksperimen adalah bagian dari mengadopsi teknologi baru, mendorong penggunaan AI tanpa arahan bisa membuat tekanan pada karyawan untuk menghasilkan sesuatu bahkan ketika tidak tepat.
Jadi bagaimana perusahaan menghentikan workslop? Saran peneliti termasuk lebih banyak panduan untuk kapan dan bagaimana AI harus digunakan, mendorong penggunaan yang bertujuan, bukan hanya untuk mencari jalan pintas, serta meningkatkan kolaborasi dan transparansi antar karyawan tentang penggunaan AI. Tanpa langkah-langkah ini, perusahaan yang terburu-buru mengadopsi AI berisiko menciptakan lebih banyak masalah daripada efisiensi.
Dengan itu, ini berita AI lainnya.
Beatrice Nolan
[email protected]
BERITA DARI FORTUNE TENTANG AI
- ‘Setiap pilot copilot terjebak dalam pilot’—kecuali perusahaan menyeimbangkan keamanan data dan inovasi, kata para ahli — Sharon Goldman
- Eksklusif: Mantan peneliti Google DeepMind dapat pendanaan $5 juta untuk perusahaan baru yang bawa AI perancang algoritma untuk semua orang — Jeremy Kahn
- Biaya visa H-1B Trump $100.000 bisa batasi akses startup ke bakat AI dan perluas dominasi Big Tech — Beatrice Nolan
- Bagaimana Sarah de Lagarde, yang kehilangan dua anggota tubuh dalam kecelakaan kereta, menggunakan AI untuk promosikan teknologi baru yang mudah diakses—termasuk "lengan robot keren"nya — Aslesha Mehta
BERITA EYE ON AI
- Nvidia investasi miliaran dolar di OpenAI. Setelah janji $5 miliar ke rival lamanya Intel, Nvidia akan investasi hingga $100 miliar di OpenAI. Dalam kemitraan ini, Nvidia akan menyediakan setidaknya 10 gigawatt sistem. Namun, beberapa investor memperingatkan "sirkularitas" dalam strategi bisnis Nvidia, di mana perusahaan meningkatkan permintaan untuk chip AI-nya dengan berinvestasi di startup seperti OpenAI, yang kemudian menggunakan dana itu untuk membeli lebih banyak perangkat keras Nvidia.
- Para ahli serukan ‘Garis Merah’ untuk AI. Lebih dari 200 ahli, termasuk 10 peraih Nobel, pelopor AI dari OpenAI, Google DeepMind, dan Anthropic, serta mantan pemimpin dunia, menyerukan "garis merah" internasional untuk pengembangan AI akhir 2026. Para penandatangan memperingatkan bahwa "arah AI saat ini membawa bahaya yang belum pernah terjadi sebelumnya," dan menekankan perlunya kesepakatan internasional yang jelas dan dapat diverifikasi. Mereka memperingatkan risiko seperti pandemi buatan, pengangguran massal, dan hilangnya kendali manusia atas AI.
- Pemimpin AI beri pendapat tentang biaya visa H-1B baru. CEO Nvidia Jensen Huang dan CEO OpenAI Sam Altman berbagi pemikiran mereka tentang biaya visa H-1B baru Trump sebesar $100K. Para pemimpin AI ini menandakan dukungan mereka untuk kenaikan biaya visa selama wawancara dengan CNBC. Huang mengatakan dia "senang melihat Presiden Trump mengambil langkah-langkahnya" sementara Altman mengatakan insentif keuangan dan menyederhanakan proses "terlihat baik bagi saya." Langkah ini bisa mengubah perekrutan di sektor teknologi AS.
RISET EYE ON AI
- Google DeepMind fokus pada risiko AI baru. DeepMind merilis versi 3.0 dari Frontier Safety Framework. Pembaruan ini memperkenalkan Level Kemampuan Kritis (CCL) baru yang berfokus pada "manipulasi berbahaya," yang didefinisikan sebagai "model AI dengan kemampuan manipulatif kuat yang dapat disalahgunakan untuk mengubah keyakinan dan perilaku secara sistematis dan substansial." Perusahaan juga memperluas Framework-nya untuk mengatasi risiko potensial model AI yang tidak selaras yang menolak dimatikan oleh manusia.
KALENDER AI
- 6-10 Okt: World AI Week, Amsterdam
- 21-22 Okt: TedAI San Francisco.
- 10-13 Nov: Web Summit, Lisbon.
- 26-27 Nov: World AI Congress, London.
- 2-7 Des: NeurIPS, San Diego
- 8-9 Des: Fortune Brainstorm AI San Francisco.
BRAIN FOOD
- Haruskah AI benar-benar digunakan untuk terapi? Semakin banyak orang beralih ke chatbot AI untuk dukungan kesehatan mental. Alasannya mudah dilihat, hampir 1 dari 4 orang dewasa dengan penyakit mental di AS melaporkan kebutuhan pengobatan mereka tidak terpenuhi. Namun, praktik ini semakin diawasi oleh regulator setelah beberapa kasus insiden fatal terkait orang yang mengandalkan bot AI selama perjuangan kesehatan mental yang parah. Dalam satu kasus, ibu dari seorang wanita 29 tahun yang bunuh diri menulis di The New York Times bahwa putrinya mengandalkan ChatGPT untuk dukungan psikologis, tetapi saran dari bot itu tidak memadai. Orang tua dua remaja juga menyalahkan chatbot AI karena mendorong anak-anak mereka untuk mengakhiri hidup. Asosiasi Psikologi Amerika menyebut penggunaan chatbot AI generik untuk dukungan kesehatan mental sebagai "tren berbahaya."