David Sacks bilang, ketidakcocokan itu bukan karena AI ancam pekerjaan, privasi, dan masa depan ekonomi kita. Menurut dia, ini semua adalah rencana $1 miliar dari "Doomer Industrial Complex," yaitu jaringan miliarder Effective Altruism yang didanai orang seperti Sam Bankman-Fried (pendiri FTX yang dihukum) dan Dustin Moskovitz (pendiri Facebook).
Dalam post di X, Sacks bilang ketidakpercayaan publik terhadap AI itu tidak alami – tapi dibuat-buat. Dia tunjuk penelitian dari ahli Nirit Weiss-Blatt, yang petakan banyak grup yang promosikan regulasi ketat atau hentian untuk AI canggih. Weiss-Blatt bilang uang di balik organisasi-organisasi itu bisa dilacak ke sekelompok kecil donor Effective Altruism, termasuk Dustin Moskovitz dan Sam Bankman-Fried.
Menurut dia, para dermawan itu sudah beri lebih dari $1 miliar untuk pelajari atau kurangi "risiko eksistensial" dari AI. Tapi, organisasi Open Philanthropy milik Moskovitz disebut sebagai donor terbesar.
Open Philanthropy tidak setuju dengan anggapan mereka ciptakan skenario menakutkan seperti film fiksi ilmiah. Seorang juru bicara bilang mereka percaya teknologi dan kemajuan ilmiah sudah tingkatkan kesejahteraan manusia, dan AI punya potensi besar untuk percepat sains dan tumbuhkan ekonomi. Tapi, AI juga bawa risiko yang belum pernah ada, dan mereka dukung kerja non-partisan untuk kelola risiko itu.
Tapi Sacks, yang punya hubungan dekat dengan komunitas venture capital Silicon Valley, klaim dana dari Open Philanthropy tidak hanya peringatkan risiko – tapi juga bayar kampanye PR global yang peringatkan AI yang "seperti Tuhan." Dia sebut polling yang tunjukkan 83% responden di China lihat manfaat AI lebih besar dari bahayanya, dibanding hanya 39% di AS, sebagai bukti bahwa "uang propaganda" sudah ubah debat di Amerika.
Sacks lama desak pendekatan AI yang ramah industri dan tanpa regulasi, dalam kerangka lomba dengan China. Perusahaan venture capital-nya, Craft Ventures, tidak langsung beri tanggapan.
Apa itu Effective Altruism?
"Uang propaganda" yang Sacks sebut sebagian besar dari komunitas Effective Altruism (EA), yaitu grup idealis, filsuf, dan miliarder teknologi yang percaya tugas moral terbesar umat manusia adalah cegah bencana masa depan, termasuk AI yang lepas kendali.
Gerakan EA, didirikan oleh filsuf Oxford William MacAskill dan Toby Ord, anjurkan donor untuk gunakan data dan akal untuk lakukan hal yang paling baik. Kerangka ini bawa beberapa anggota fokus pada "longtermism," yaitu ide bahwa mencegah risiko eksistensial seperti pandemi, perang nuklir, atau AI nakal harus jadi prioritas daripada penyebab jangka pendek.
Meski beberapa organisasi EA advokasi regulasi AI berat atau "jeda" dalam pengembangan model, yang lain – seperti Open Philanthropy – ambil pendekatan lebih teknis, dan danai penelitian keselarasan AI di perusahaan seperti OpenAI dan Anthropic. Pengaruh gerakan ini tumbuh cepat sebelum kolapsnya FTX di tahun 2022, yang pendirinya adalah salah satu pendukung terbesar EA.
Matthew Adelstein, mahasiswa 21 tahun yang punya Substack terkemuka tentang EA, catat bahwa lanskapnya jauh dari mesin tunggal seperti yang Sacks gambarkan. Peta Weiss-Blatt sendiri tentang "ekosistem risiko eksistensial AI" termasuk ratusan entitas terpisah – dari lab universitas sampai blog – yang gunakan bahasa serupa tapi tidak selalu terkoordinasi. Tapi, Weiss-Blatt simpulkan bahwa meski "ekosistem yang menggelembung" ini bukan gerakan akar rumput, tapi gerakan dari atas ke bawah.
Adelstein tidak setuju, dan bilang realitanya "lebih terpecah dan kurang jahat" dari yang digambarkan Weiss-Blatt dan Sacks.
"Kebanyakan ketakutan orang tentang AI bukan yang dibicarakan para miliarder," kata Adelstein. "Orang khawatir tentang kecurangan, bias, kehilangan pekerjaan – bahaya langsung – bukan risiko eksistensial."
Dia bilang, menunjuk pada donor kaya sama sekali tidak tepat sasaran.
"Ada risiko yang sangat serius dari kecerdasan buatan," katanya. "Bahkan pengembang AI pikir ada kemungkinan beberapa persen itu bisa sebabkan kepunahan manusia. Fakta bahwa beberapa orang kaya setuju itu adalah risiko serius bukanlah argumen menentangnya."
Bagi Adelstein, longtermism bukan obsesi kultis dengan masa depan yang jauh, tapi kerangka pragmatis untuk prioritaskan risiko global.
"Kita sedang kembangkan AI yang sangat canggih, hadapi risiko nuklir dan biologi yang serius, dan dunia tidak siap," katanya. "Longtermism hanya bilang kita harus lakukan lebih banyak untuk cegah itu."
Dia juga anggap enteng tuduhan bahwa EA telah berubah jadi gerakan seperti agama.
"Aku ingin lihat kultus yang dedikasikan diri untuk lakukan altruisme secara efektif dan selamatkan 50,000 nyawa per tahun," katanya sambil tertawa. "Itu baru kultus yang aneh."