Dari semua cerita yang tidak terduga tentang AI saat ini, cerita Leopold Aschenbrenner adalah salah satu yang paling menarik.
Karir anak umur 23 tahun ini tidak mulai dengan baik. Dia pernah kerja di bagian filantropi FTX milik Sam Bankman-Fried yang sekarang bangkrut, lalu dia kerja setahun di OpenAI dengan kontroversial dan akhirnya di pecat. Cuma dua bulan setelah dipecat dari perusahaan AI terpenting itu, dia nulis manifesto AI yang jadi viral—bahkan Ivanka, anak perempuan President Trump, puji itu di media sosial. Dia pakai manifesto itu untuk mulai buka hedge fund yang sekarang kelola lebih dari $1,5 miliar. Jumlah ini biasa untuk hedge fund, tapi luar biasa untuk seseorang yang baru lulus kuliah. Cuma empat tahun setelah lulus dari Columbia, Aschenbrenner udah ngobrol privat dengan CEO tech, investor, dan pembuat kebijakan yang anggap dia seperti nabi di jaman AI.
Ini adalah kenaikan yang sangat cepat, yang banya orang bertanya-tanya, gimana caranya peneliti AI muda dari Jerman ini bisa berhasil? Apa berita tenntang dia sesuai dengan kenyataan? Bagi sebagian orang, Aschenbrenner adalah jenius langka yang lihat momen ini—kedatangan AI seperti manusia, perlombaan AI dengan Cina, dan kekayaan besar untuk yang bergerak duluan—lebih jelas dari siapapun. Tapi bagi yang lain, termasuk beberapa mantan kolega di OpenAI, dia cuma pemula yang beruntung tanpa pengalaman di finans, yang hanya bungkus ulang hype menjadi presentasi untuk hedge fund.
Kenaikannya yang cepat ini nunjukin bagaimana Silicon Valley ubah ‘zeitgeist’ (semangat jaman) jadi modal—dan bagaimana itu bisa jadi pengaruh. Meski kritikus tanya apakah buka hedge fund cuma cara untuk ubah ramalan teknologi yang meragukan jadi untung, teman-temannya seperti peneliti Anthropic Sholto Douglas bilang ini sebagai "teori perubahan." Aschenbrenner pakai hedge fund-nya untuk dapat suara yang dipercaya di ekosistem finans, jelas Douglas: "Dia bilang, ‘Saya sangat yakin ini adalah bagaimana dunia akan berubah, dan saya benar-benar taruh uang saya di mana mulut saya berada."
Tapi itu juga bikin orang bertanya: Kenapa banyak orang mau percaya pada pendatang baru ini?
Jawabannya rumit. Dari obrolan dengan lebih dari selusin teman, mantan kolega, dan kenalan Aschenbrenner, serta investor dan orang dalam Silicon Valley, satu tema yang sering muncul: bahwa Aschenbrenner telah bisa ambil ide-ide yang sudah dapat momentum di lab-lab Silicon Valley dan pakai itu sebagai bahan untuk cerita yang masuk akal dan meyakinkan, yang seperti makanan spesial untuk investor yang suka ambil resiko.
Aschenbrenner menolak berkomentar untuk cerita ini. Sejumlah sumber minta anonim karena khawatir akibatnya kalau bicara tentang orang yang punya kuasa dan pengaruh besar di kalangan AI.
Banyak yang bicara tentang Aschenbrenner dengan campuran kagum dan hati-hati—"intens," "pintar sekali," "berani," "percaya diri." Lebih dari satu orang gambarkan dia punya aura wunderkind (anak ajaib), jenis tokoh yang sudah lama dicari-cari Silicon Valley. Tapi yang lain bilang pemikirannya tidak terlalu baru, cuma dibungkus dengan sangat baik dan waktunya tepat. Meski kritikus bilang dia lebih banyak hype daripada wawasan, investor yang diajak bicara Fortune lihat dia berbeda, dan beri kredit untuk esainya dan taruhan portfolio awalnya karena punya pandangan jauh yang tidak biasa.
Tidak diragukan lagi, kenaikan Aschenbrenner mencerminkan pertemuan unik: banyak modal global yang mau ikut gelombang AI; Silicon Valley yang terpesona oleh prospek mencapai AGI (AI yang setara atau lebih pintar dari manusia); dan latar belakang geopolitik yang lihat perkembangan AI sebagai perlombaan senjata teknologi dengan Cina.
Menggambar Masa Depan
Di beberapa kalangan dunia AI, Leopold Aschenbrenner sudah dikenal sebagai orang yang pernah nulis post blog, esai, dan paper penelitian yang beredar di kalangan keamanan AI, bahkan sebelum dia gabung OpenAI. Tapi bagi kebanyakan orang, dia muncul tiba-tiba di Juni 2024. Saat itulah dia terbitkan sendiri online monograf 165 halaman berjudul "Situational Awareness: The Decade Ahead". Esai panjang ini pinjam judulnya dari frasa yang sudah dikenal di kalangan AI, di mana "situational awareness" biasanya merujuk ke model AI yang sadar akan keadaan mereka sendiri—sebuah resiko keamanan. Tapi Aschenbrenner pakai itu untuk arti yang lain: kebutuhan pemerintah dan investor untuk menyadari seberapa cepat AGI mungkin datang, dan apa yang dipertaruhkan jika AS tertinggal.
Secara gak langsung, Aschenbrenner berniat manifesto-nya menjadi setara dengan "Long Telegram"-nya George Kennan di era AI, di mana diplomat dan ahli Rusia Amerika itu berusaha bangkitkan opini elit di AS tentang apa yang dia lihat sebagai ancaman Soviet yang mengancam Eropa. Di pendahuluannya, Aschenbrenner gambar masa depan yang dia klaim cuma bisa dilihat oleh beberapa ratus orang yang punya pandangan jauh, "kebanyakan dari mereka di San Francisco dan lab-lab AI." Tidak mengejutkan, dia masukan dirinya sendiri di antara orang-orang yang punya "situational awareness," sementara sisanya di dunia "tidak ada sedikit pun cahaya tentang apa yang akan menimpa mereka." Bagi kebanyakan orang, AI kelihatan seperti hype atau, paling bagus, perubahan sebesar internet. Apa yang dia yakini bisa dia lihat lebih jelas adalah bahwa model bahasa besar (LLM) meningkat dengan sangat cepat, menuju AGI, dan lalu melampauinya ke "kecerdasan super"—dengan konsekuensi geopolitik dan, bagi yang bergerak duluan, kesempatan untuk dapat keuntungan ekonomi terbesar di abad ini.
Untuk tekankan poinnya, dia sebut contoh COVID di awal 2020—berargumen bahwa hanya sedikit yang paham implikasi dari penyebaran eksponensial pandemi, mengerti luasnya guncangan ekonomi yang datang, dan untung dengan shorting sebelum pasar jatuh. "Yang bisa saya lakukan cuma beli masker dan short pasar," tulisnya. Demikian juga, dia tekankan bahwa hanya lingkaran kecil hari ini yang paham seberapa cepat AGI datang, dan mereka yang bertindak awal akan dapat keuntungan sejarah. Dan sekali lagi, dia tempatkan dirinya di antara sedikit orang yang punya pandangan jauh itu.
Tapi inti argumen Situational Awareness bukan perbandingan dengan COVID. Argumennya itu matematikanya sendiri—kurva skala yang menunjukan kemampuan AI meningkat secara eksponensial dengan jumlah data dan daya komputasi—menunjukan kemana arah semuanya ini.
Douglas, yang sekarang jadi tech lead untuk scaling reinforcement learning di Anthropic, adalah teman dan mantan teman sekamar Aschenbrenner. Mereka pernah ngobrol tentang monograf itu. Dia bilang ke Fortune bahwa esai itu menjelaskan apa yang sudah dirasakan banyak peneliti AI. "Kalau kita percaya tren ini akan lanjut, kita akan sampai di tempat-tempat yang sangat ekstrem," kata Douglas. Berbeda dengan banyak orang yang fokus pada perkembangan bertahap setiap rilis model, Aschenbrenner mau "taruhan beneran pada eksponensial," katanya.
Sebuah esai menjadi viral
Banyak esai panjang dan serius tentang risiko dan strategi AI beredar tiap tahun, kebanyakan hilang setelah debat singkat di forum niche seperti LessWrong. Tapi Situational Awareness beda. Scott Aaronson, profesor ilmu komputer di UT Austin yang pernah kerja dua tahun di OpenAI, ingat reaksi awalnya: "Ya ampun, yang lain lagi." Tapi setelah baca, dia bilang ke Fortune: "Saya rasa ini dokumen yang akan dibaca jenderal atau orang keamanan nasional dan bilang: ‘Ini butuh aksi.’" Di sebuah posting blog, dia sebut esai itu "salah satu dokumen paling luar biasa yang pernah saya baca," dan bilang Aschenbrenner "membuat kasus bahwa, bahkan setelah ChatGPT dan semua yang menyusul, dunia masih belum sadar apa yang akan menimpanya."
Seorang ahli tata kelola AI yang sudah lama bilang esai itu "pencapaian besar," tapi tekankan bahwa idenya tidak baru: "Dia pada dasarnya mengambil apa yang sudah jadi pengetahuan umum di lab AI frontier dan menulisnya dengan cara yang sangat bagus, menarik, dan mudah dimengerti." Hasilnya adalah membuat pemikiran orang dalam bisa dipahami oleh khalayak yang lebih luas.
Di antara peneliti keamanan AI, yang terutama khawatir dengan cara AI bisa jadi risiko eksistensial bagi manusia, esai itu lebih memecah belah. Bagi banyak orang, karya Aschenbrenner terasa seperti pengkhianatan, terutama karena dia berasal dari kalangan mereka sendiri. Mereka merasa argumen mereka untuk hati-hati dan regulasi dipakai ulang jadi sales pitch untuk investor. "Beberapa orang yang sangat khawatir tentang [risiko eksistensial] sekarang cukup tidak suka Leopold karena yang dia lakukan—mereka pikir dia jual diri," kata seorang mantan peneliti tata kelola OpenAI. Yang lain setuju dengan sebagian besar prediksinya dan lihat nilai dalam memperkuatnya.
Tapi, bahkan kritikus mengakui bakatnya dalam packaging dan marketing. "Dia sangat baik dalam memahami zeitgeist—apa yang orang minati dan apa yang bisa jadi viral," kata mantan peneliti OpenAI lainnya. "Itu superpower-nya. Dia tau cara menangkap perhatian orang-orang berkuasa dengan menyampaikan narasi yang sangat sesuai dengan suasana saat ini: bahwa AS perlu mengalahkan Cina, bahwa kita perlu memperlakukan keamanan AI lebih serius. Bahkan jika detailnya salah, waktunya sempurna."
Waktu itu membuat esai tidak bisa dihindari. Pendiri dan investor tech membagikan Situational Awareness dengan urgensi yang biasanya untuk term sheet panas, sementara pembuat kebijakan dan pejabat keamanan nasional menyebarkannya seperti penilaian NSA classified yang paling menarik.
Seperti kata staf OpenAI saat ini, keahlian Aschenbrenner adalah "tahu di mana puck akan meluncur."
Sebuah narasi luas dipasangkan dengan kendaraan investasi
Bersamaan dengan rilisnya esai, Aschenbrenner meluncurkan Situational Awareness LP, sebuah hedge fund yang dibangun sekitar tema AGI, dengan taruhannya di perusahaan publik, bukan startup swasta.
Dana ini di seed oleh tokoh-tokoh berat Silicon Valley seperti Nat Friedman, serta mitra investasinya Daniel Gross, dan Patrick serta John Collison, pendiri Stripe. Aschenbrenner juga membawa Carl Shulman—seorang peramal dan peneliti tata kelola AI berusia 45 tahun dengan hubungan kuat di bidang keamanan AI—untuk jadi direktur riset di hedge fund barunya.
Dalam podcast empat jam dengan Dwarkesh Patel terkait peluncurannya, Aschenbrenner puji pertumbuhan eksplosif yang dia harapkan begitu AGI tiba, katanya, "Satu dekade setelahnya juga akan gila," di mana "modal akan sangat penting." Jika dilakukan dengan benar, katanya, "ada banyak uang yang bisa dihasilkan. Jika AGI sudah diharga besok, kamu mungkin bisa dapat 100x."
Bersama-sama, manifesto dan dananya saling menguatkan: Ini adalah investment thesis sepanjang buku yang dipasangkan dengan seorang peramal yang punya keyakinan begitu besar sampai dia mau menaruh uang serius. Itu terbukti kombinasi yang tak tertahankan untuk jenis investor tertentu. Satu mantan peneliti OpenAI bilang Friedman dikenal dengan "zeitgeist hacking"—mendukung orang yang bisa menangkap suasana saat ini dan memperkuatnya jadi pengaruh. Mendukung Aschenbrenner cocok sekali dengan playbook itu.
Strategi Situational Awareness sederhana: Bertaruh pada saham global yang kemungkinan untung dari AI—semikonduktor, infrastruktur, dan perusahaan listrik—dilindungi oleh short pada industri yang mungkin tertinggal. Pengajuan publik mengungkap sebagian portofolionya: Pengajuan SEC Juni menunjukkan kepemilikan di perusahaan AS termasuk Intel, Broadcom, Vistra, dan mantan penambang Bitcoin Core Scientific, semuanya dilihat sebagai penerima manfaat dari pembangunan AI. Sejauh ini, itu berhasil: Dana itu cepat membesar ke lebih dari $1.5 miliar aset dan memberikan keuntungan 47%, setelah biaya, di paruh pertama tahun ini.
Menurut seorang juru bicara, Situational Awareness LP punya investor global, termasuk pendiri West Coast, family offices, institusi, dan endowments. Lagipula, menurut juru bicara, Aschenbrenner "memiliki hampir semua kekayaan bersihnya diinvestasikan di dalam dana itu."
Memang, gambaran tentang kepemilikan dana hedge AS tidak pernah lengkap. Laporan 13F yang tersedia untuk publik hanya mencakup posisi long di saham AS—seperti posisi short, derivatif, dan investasi internasional tidak diungkapkan—menambah misteri tentang apa yang sebenarnya dipertaruhkan dana tersebut. Tetap saja, beberapa pengamat mempertanyakan apakah hasil awal Aschenbrenner mencerminkan keahlian atau hanya waktu yang beruntung. Contohnya, dananya mengungkapkan opsi call Intel senilai sekitar $459 juta dalam laporan kuartal pertamanya—posisi yang kemudian terlihat visioner ketika saham Intel naik pada musim panas setelah investasi federal dan kepemilikan $5 miliar dari Nvidia.
Tapi, setidaknya beberapa profesional industri keuangan yang berpengalaman mulai memandangnya berbeda. Investor dana hedge veteran, Graham Duncan, yang berinvestasi pribadi di Situational Awareness LP dan sekarang menjadi penasihat dana itu, mengatakan ia terkesan dengan kombinasi perspektif orang dalam dan strategi investasi berani Aschenbrenner. "Saya temukan tulisannya provokatif," kata Duncan, menambahkan bahwa Aschenbrenner dan Shulman bukan orang luar yang mencari peluang, tapi orang dalam yang membangun kendaraan investasi berdasarkan pandangan mereka. Tesis dana itu mengingatkannya pada sedikit kontrarian yang melihat keruntuhan subprime sebelum terjadi—orang seperti Michael Burry, yang dibuat terkenal oleh Michael Lewis dalam bukunya The Big Short. "Jika kamu ingin punya persepsi yang berbeda, itu bisa bantu jika kamu sedikit berbeda."
Dia menunjuk pada reaksi Situational Awareness terhadap rilis LLM open-source R1 oleh startup China DeepSeek pada bulan Januari, yang banyak disebut sebagai "momen Sputnik" yang menunjukkan kemampuan AI China yang bangkit meski dana dan kontrol ekspor terbatas. Sementara kebanyakan investor panik, dia bilang Aschenbrenner dan Shulman sudah melacaknya dan melihat penjualan saham sebagai reaksi berlebihan. Mereka malah membeli, dan bahkan sebuah dana teknologi besar konon menahan diri untuk tidak menjual saham setelah seorang analis berkata, "Leopold bilang tidak apa-apa." Momen itu, kata Duncan, mengukuhkan kredibilitas Aschenbrenner—meski Duncan akui, "Dia masih mungkin terbukti salah."
Investor lain di Situational Awareness LP, yang mengelola dana hedge terkemuka, mengatakan kepada Fortune bahwa ia terkesan dengan jawaban Aschenbrenner ketika ditanya mengapa dia memulai dana hedge fokus pada AI, bukan dana VC, yang sepertinya pilihan paling jelas.
"Dia bilang bahwa AGI akan sangat berdampak pada ekonomi global sehingga satu-satunya cara untuk memanfaatkannya sepenuhnya adalah dengan mengekspresikan ide investasi di pasar paling likuid di dunia," katanya. "Saya agak kaget dengan secepat mereka belajar… Mereka jauh lebih paham tentang investasi AI daripada siapa pun yang saya ajak bicara di pasar publik."
Anak ajaib Columbia yang kemudian ke FTX dan OpenAI
Aschenbrenner, lahir di Jerman dari dua dokter, mendaftar di Columbia saat usianya baru 15 tahun dan lulus sebagai valedictorian di usia 19. Seorang peneliti tata kelola AI yang sudah lama, yang menggambarkan dirinya sebagai kenalan Aschenbrenner, ingat bahwa dia pertama kali mendengar tentang Aschenbrenner ketika dia masih mahasiswa S1.
"Saya dengar tentang dia, ‘Oh, kami dengar tentang anak ini Leopold Aschenbrenner, dia kayaknya orang yang pintar’," katanya. "Vibenya sangat seperti anak ajaib."
Reputasi wunderkind itu semakin dalam. Di usia 17, Aschenbrenner memenangkan hibah dari Emergent Ventures milik ekonom Tyler Cowen, dan Cowen menyebutnya "prodigi ekonomi". Saat masih di Columbia, Aschenbrenner juga magang di Global Priorities Institute, menulis bersama sebuah makalah dengan ekonom Philip Trammell, dan menyumbangkan esai untuk Works in Progress, publikasi yang didanai Stripe yang memberinya pijakan lain di dunia teknologi-intelektual.
Dia sudah tertanam di komunitas Effective Altruism (EA)—sebuah gerakan berbasis filosofi yang kontroversial dan berpengaruh di kalangan keselamatan AI—dan ikut mendirikan cabang EA Columbia. Jaringan itu akhirnya membawanya ke pekerjaan di FTX Future Fund, sebuah amal yang didirikan oleh pendiri bursa kripto Sam Bankman-Fried. Bankman-Fried adalah penganut EA lain yang menyumbang ratusan juta dolar untuk cause, termasuk penelitian tata kelola AI, yang selaras dengan prioritas filantropi EA.
FTX Future Fund dirancang untuk mendukung prioritas filantropi yang selaras dengan EA, meskipun kemudian diketahui menggunakan uang dari bursa kripto FTX Bankman-Fried yang pada dasarnya dijarah dari pemegang akun. (Tidak ada bukti bahwa siapa pun yang bekerja di FTX Future Fund tahu uang itu dicuri atau melakukan sesuatu yang ilegal.)
Di FTX Future Fund, Aschenbrenner bekerja dengan tim kecil yang termasuk William MacAskill, salah satu pendiri Effective Altruism, dan Avital Balwit—sekarang kepala staf untuk CEO Anthropic Dario Amodei dan, menurut juru bicara Situational Awareness LP, saat ini bertunangan dengan Aschenbrenner. Balwit menulis dalam esai Juni 2024 bahwa "lima tahun ke depan mungkin adalah tahun-tahun terakhir saya bekerja," karena AGI mungkin "mengakhiri pekerjaan seperti yang saya kenal"—sebuah cerminan yang mencolok dari keyakinan Aschenbrenner bahwa teknologi yang sama akan membuat investornya kaya.
Tapi ketika kerajaan FTX Bankman-Fried runtuh pada November 2022, upaya filantropi Future Fund hancur. "Kami adalah tim kecil, dan kemudian dari satu hari ke hari berikutnya, semuanya hilang dan dikaitkan dengan penipuan besar," kata Aschenbrenner kepada Dwarkesh Patel. "Itu sangat berat."
Namun, hanya beberapa bulan setelah FTX runtuh, Aschenbrenner muncul kembali—di OpenAI. Dia bergabung dengan tim "superalignment" yang baru diluncurkan perusahaan pada 2023, dibuat untuk mengatasi masalah yang belum ada yang tahu cara menyelesaikannya: bagaimana mengarahkan dan mengontrol sistem AI masa depan yang akan jauh lebih pintar daripada manusia mana pun, dan mungkin lebih pintar dari seluruh umat manusia digabungkan. Metode yang ada seperti reinforcement learning from human feedback (RLHF) terbukti agak efektif untuk model saat ini, tapi metode itu bergantung pada kemampuan manusia untuk mengevaluasi output—sesuatu yang mungkin tidak mungkin jika sistem melampaui pemahaman manusia.
Aaronson, profesor ilmu komputer UT, bergabung dengan OpenAI sebelum Aschenbrenner dan mengatakan yang membuatnya terkesan adalah naluri Aschenbrenner untuk bertindak. Aaronson telah mengerjakan watermarking output ChatGPT untuk membuat teks yang dihasilkan AI lebih mudah diidentifikasi. "Saya punya proposal untuk melakukannya, tapi idenya agak terbengkalai," katanya. Leopold langsung bilang, ‘Ya, kita harus lakukan ini, saya yang akan tanggung jawab untuk mendorongnya.’
Tapi, orang lain ingat dia beda. Mereka bilang dia canggung secara politik dan kadang sombong. "Dia tidak pernah takut untuk berbicara keras dalam rapat atau membuat marah atasan, sampai-sampai saya merasa khawatir," kata seorang peneliti OpenAI sekarang. Seorang mantan staf OpenAI ingat pertama kali kenal Aschenbrenner saat presentasi di rapat perusahaan. Dia bilang Aschenbrenner "agak kasar." Beberapa peneliti juga cerita tentang pesta liburan di mana Aschenbrenner kasih tau CEO Scale AI, Alexandr Wang, tentang berapa banyak GPU yang OpenAI punya – "langsung diomongin aja," kata salah satu orang. Dua orang bilang pada Fortune mereka dengar langsung omongan itu. Banyak orang kaget karena dia bagi informasi rahasia dengan santainya. Melalui juru bicara, baik Wang maupun Aschenbrenner bantah kejadian itu pernah terjadi.
"Cerita ini sepenuhnya tidak benar," kata perwakilan Aschenbrenner ke Fortune. "Leopold tidak pernah bahas informasi rahasia dengan Alex. Leopold sering bahas tren skala AI, seperti dalam Situational Awareness, berdasarkan informasi publik dan tren industri."
Pada April 2024, OpenAI memecat Aschenbrenner. Alasannya resmi adalah kebocoran informasi internal (insiden ini tidak terkait dengan omongan GPU kepada Wang yang dituduhkan). Dua bulan kemudian di podcast Dwarkesh, Aschenbrenner bersikeras bahwa "bocoran" itu adalah "dokumen brainstorming tentang kesiapan, keamanan, dan langkah-langkah yang diperlukan di masa depan menuju AGI" yang dia bagikan kepada tiga peneliti eksternal untuk masukan – sesuatu yang dia katakan "sangat normal" di OpenAI waktu itu. Dia berargumen bahwa memo sebelumnya, di mana dia menulis keamanan OpenAI "sangat tidak cukup untuk melindungi dari pencurian bobot model atau rahasia algoritma oleh aktor asing," adalah alasan sebenarnya dia dipecat.
Menurut laporan berita, OpenAI membalas, lewat juru bicara, bahwa kekhawatiran tentang keamanan yang dia sampaikan secara internal (termasuk ke dewan) "bukan penyebab dia berhenti." Juru bicara itu juga bilang mereka "tidak setuju dengan banyak klaim yang dia buat" tentang keamanan OpenAI dan keadaan hengkangnya.
Bagaimanapun, pecatnya Aschenbrenner terjadi di tengah gejolak yang lebih besar: Dalam beberapa minggu, tim "superalignment" OpenAI – dipimpin oleh salah satu pendiri dan ilmuwan utamanya, Ilya Sutskever, dan peneliti AI Jan Leike, dan tempat Aschenbrenner bekerja – bubar setelah kedua pemimpinnya keluar dari perusahaan.
Dua bulan kemudian, Aschenbrenner menerbitkan Situational Awareness dan meluncurkan hedge fund-nya. Kecepatan peluncurannya bikin beberapa mantan kolega menduga dia sudah mempersiapkan semuanya saat masih di OpenAI.
Hasil vs. Retorika
Bahkan yang skeptis akui bahwa pasar telah menghadiahi Aschenbrenner karena mengikuti hype AGI sekarang. Tapi, keraguan tetap ada. "Saya tidak bisa bayangkan ada yang mau percayakan uang ke orang yang masih sangat muda dan tidak ada pengalaman mengelola dana," kata seorang mantan kolega OpenAI yang sekarang jadi pendiri startup. "Saya tidak akan mau jadi investor di dana yang dikelola oleh seorang anak, kecuali ada tata kelola yang sangat kuat."
Yang lain pertanyakan etika mencari untung dari ketakutan akan AI. "Banyak yang setuju dengan argumen Leopold, tapi tidak setuju memanas-manasi perlombaan AS-China atau mengumpulkan uang berdasarkan hype AGI, meski hype itu benar," kata seorang mantan peneliti OpenAI. "Entah dia sudah tidak berpikir [risiko eksistensial dari AI] itu hal besar, atau dia tidak tulus," kata yang lain.
Seorang mantan strategis di komunitas Effective Altruism bilang banyak orang di sana "kesal dengannya," terutama karena dia promosi narasi bahwa ada "perlombaan menuju AGI" yang "menjadi ramalan yang terwujud sendiri." Meski mencari untung dari memanas-manasi perlombaan senjata bisa dibenarkan – karena Effective Altruist sering anggap mencari uang untuk kemudian disumbangkan itu baik – mantan strategis itu berargumen bahwa "pada level dana Leopold, kamu benar-benar menyediakan modal," dan itu punya bobot moral lebih besar.
Kekhawatiran yang lebih dalam, kata Aaronson, adalah bahwa pesan Aschenbrenner – bahwa AS harus percepat perkembangan AI dengan segala cara untuk mengalahkan China – sudah sampai di Washington pada saat suara-suara akselerasionis seperti Marc Andreessen, David Sacks, dan Michael Kratsios sedang naik. "Bahkan jika Leopold tidak percaya itu, esainya akan dipakai oleh orang yang percaya," kata Aaronson. Jika iya, warisan terbesarnya mungkin bukan sebuah hedge fund, tapi sebuah kerangka intelektual yang lebih luas yang membantu mengukuhkan Perang Dingin teknologi antara AS dan China.
Jika itu terbukti benar, dampak nyata Aschenbrenner mungkin bukan tentang hasil keuangan, tapi lebih tentang retorika – cara idenya menyebar dari Silicon Valley ke Washington. Ini menunjukkan paradoks di pusat ceritanya: Bagi sebagian, dia jenius yang melihat momen ini lebih jelas dari siapa pun. Bagi yang lain, dia figur Machiavellian yang mengemas ulang kekhawatiran keamanan orang dalam menjadi penawaran untuk investor. Bagaimanapun, miliaran uang sekarang dipertaruhkan pada apakah taruhannya pada AGI akan berhasil. Saya selalu menyukai desain dan menggambar sejak saya masih kecil. Waktu itu, saya akan menghabiskan berjam-jam untuk membuat gambar dan sketsa.
Sekarang, saya sudah dewasa dan saya sedang belajar untuk menjadi seorang desainer grafis yang professional. Saya sangat senang bisa mengejar cita-cita saya ini. Meskipun begitu, belajar nya terkadang susah dan butuh kesabaran.
Saya harap suatu hari nanti saya bisa bekerja di sebuah perusahaan kreatif yang bagus, atau mungkin membuka bisnis sendiri. Tujuan saya adalah untuk menciptakan karya yang bermakna dan bisa dilihat oleh banyak orang di seluruh dunia.