Masalah Skynet Ternyata Muncul Sebelum PHK Besar-besaran

Anda mungkin pernah dengar bahwa Departemen Pertahanan dan Anthropic sedang berselisih mengenai guardrail AI untuk Claude. Setiap hari ada kebocoran baru, dan kini, Washington Post melaporkan bahwa Pentagon dikabarkan menyajikan skenario serangan misil nuklir terhadap AS sebagai cara manipulatif untuk menanyakan apakah mereka diizinkan menggunakan model AI-nya untuk mempertahankan negara.

“Jawaban CEO Anthropic Dario Amodei disebut membuat Pentagon kesal, menurut pejabat tersebut, yang menggambarkan balasan sang CEO sebagai: Anda bisa menghubungi kami, dan kami akan menyelesaikannya,” demikian laporan Washington Post.

Tentu saja, Pentagon tidak menyukai jawaban itu, dan Anthropic membantah kisah tersebut. Namun fakta bahwa kita bahkan membahas hal ini cukup mengejutkan ketika kita memikirkan masa depan AI. Terlebih saat Menteri Pertahanan Pete Hegseth mengancam akan mengajukan Undang-Undang Produksi Pertahanan untuk menghapus guardrail Claude dan mengizinkan AI terlibat dalam hal-hal seperti pengawasan domestik massal dan peperangan otomatis penuh.

Pemimpin militer AS rupanya ingin menggunakan AI dalam semua situasi yang telah diperingatkan oleh fiksi ilmiah selama 80 tahun terakhir. Dan agak aneh bahwa musim dingin nuklir akibat AI mungkin datang sebelum robot mengambil alih semua pekerjaan kita.

Pekerjaan siapa yang akan tergantikan?

Otomatisasi yang meningkat selalu berarti hilangnya lapangan kerja. Kekhawatiran itu paling terasa selama seabad terakhir di pekerjaan kerah biru, di mana mesin telah menggantikan tenaga manual banyak manusia di pabrik.

Tapi kebangkitan AI dalam tahun-tahun belakangan membawa ketakutan itu ke dunia kerah putih, di mana banyak warga Amerika kelas menengah dalam ekonomi informasi khawatir mereka akan digantikan oleh ChatGPT. Dan kekhawatiran mereka beralasan. Block mengumumkan pada Kamis bahwa perusahaan tersebut mem-PHK 40% tenaga kerjanya karena AI dapat melakukan pekerjaan itu. Namun CEO Block juga mengakui bahwa perusahaannya merekrut terlalu banyak orang selama pandemi covid, sehingga menimbulkan kecurigaan atas pernyataan besarnya tentang AI.

MEMBACA  1 Cryptocurrency Teratas untuk Dibeli Sebelum Naik 635% hingga 5,480%, Menurut Analis Wall Street Tertentu

Belum ada PHK massal di seluruh ekonomi, namun rasanya hal itu akan segera terjadi, apakah akhirnya terwujud atau tidak.

Hapus guardrail-mu, atau kau benci Amerika

Di saat yang sama, kita menyaksikan bahaya lain yang muncul dari AI yang bisa dibilang jauh lebih penting: Perang yang sepenuhnya otomatis.

Pete Hegseth bertemu dengan CEO Anthropic Dario Amodei pada Selasa dan memberikan ultimatum. Hapus pengaman Claude, atau Anthropic akan dicap sebagai “risiko rantai pasok,” sebuah sebutan yang belum pernah digunakan untuk mencap perusahaan Amerika sebelumnya.

Selain itu, Hegseth dikabarkan mengancam akan mengajukan Undang-Undang Produksi Pertahanan, yang akan memungkinkan Pentagon memaksa Anthropic untuk menghilangkan guardrail tersebut. AS tidak secara resmi dalam keadaan perang, dan tidak ada keadaan darurat jelas yang mengharuskan penerapan Undang-Undang Produksi Pertahanan.

Ini adalah posisi sulit bagi Anthropic, dan perusahaan itu mengeluarkan pernyataan pada Kamis bahwa mereka tidak akan menuruti tuntutan militer. Batas waktu bagi Anthropic untuk menyetujui adalah pukul 17:01 ET hari Jumat, jadi kita lihat saja apa yang akan diputuskan Pentagon.

Semuanya terasa sangat manipulatif, mengingatkan pada argumen pasca-9/11 yang dulu didengar untuk mendukung penyiksaan di tahun 2000-an. Apakah Anda akan melakukan waterboarding pada seseorang jika mereka tahu detail serangan bom kotor yang akan terjadi di AS? Apakah Anda akan menghubungkan testis seseorang ke aki mobil jika itu berarti mencegah 9/11 lainnya?

AI belum siap menangani nuklir

Gagasan bahwa kita harus membuat senjata kita, nuklir atau lainnya, sepenuhnya otonom adalah hal yang sama sekali tidak masuk akal jika Anda mendengarkan orang-orang yang benar-benar membangunnya.

Surat Amodei pada Kamis mengakui bahwa senjata semi-otonom sudah digunakan di beberapa belahan dunia, tapi bahkan AI paling canggih pun belum siap untuk diserahi kendali penuh.

MEMBACA  Petunjuk dan Jawaban NYT Connections 30 Oktober: Cara Menyelesaikan Teka-Teki #872

Dari surat Anthropic:

Bahkan senjata otonom penuh (yang sepenuhnya mengeluarkan manusia dari proses dan mengotomatisasi pemilihan serta penyerangan target) mungkin terbukti krusial untuk pertahanan nasional kita. Tapi saat ini, sistem AI terdepan sama sekali belum cukup andal untuk menggerakkan senjata otonom penuh. Kami tidak akan dengan sengaja menyediakan produk yang membahayakan pasukan perang dan warga sipil Amerika. Kami telah menawarkan kerja langsung dengan Departemen Perang dalam R&D untuk meningkatkan keandalan sistem ini, namun mereka belum menerima tawaran ini. Selain itu, tanpa pengawasan yang tepat, senjata otonom penuh tidak dapat diandalkan untuk menerapkan pertimbangan kritis yang ditunjukkan oleh pasukan profesional terlatih kita setiap hari. Mereka perlu diterapkan dengan guardrail yang tepat, yang belum ada saat ini.

Patut dicatat bahwa Amodei bahkan tidak menutup kemungkinan penggunaan AI untuk mengotomatisasi penuh sistem senjata di masa depan. Dia hanya berargumen bahwa AI belum sampai di titik itu.

Akankah AI pernah siap?

Peneliti di King’s College London baru-baru ini menguji GPT-5.2, Claude Sonnet 4, dan Gemini 3 Flash dalam beberapa simulasi perang untuk melihat kinerja mereka. Model-model AI itu memainkan 21 game dan meluncurkan setidaknya satu senjata nuklir taktis di 95% permainan, menurut New Scientist.

AI tidak punya alasan untuk takut meluncurkan senjata nuklir yang berpotensi memusnahkan umat manusia karena ia tidak bisa merasakan ketakutan. Model-model AI ini bisa bercerita tentang rasa takut; mereka bisa berbicara dan meyakinkan manusia bahwa mereka sadar dalam artian tertentu, tetapi sebenarnya tidak. Mereka adalah produk teknologi yang tidak akan ragu menekan tombol merah besar kecuali guardrail ketat diterapkan untuk menghentikan mereka.

MEMBACA  DC Pertimbangkan Serial Spin-off untuk Karakter Pendukung 'Superman'

Militer telah bereksperimen dengan ide-ide ini selama beberapa dekade, pertama kali mencoba membangun Skynet dengan Inisiatif Komputasi Strategis DARPA pada 1980-an. Tapi teknologi saat itu memang belum memadai.

Kemunculan AI berarti kita dapat benar-benar membangun sistem senjata otonom yang tidak memerlukan manusia dalam prosesnya. Satu-satunya pertanyaan adalah apakah itu hal yang cerdas untuk dilakukan, terutama di saat fasisme sedang bangkit di AS.

Pimpinan militer bertingkah aneh

Wakil Menteri Pertahanan Emil Michael menegur Amodei dalam sebuah tweet pada Kamis, bersikeras bahwa CEO Anthropic itu berbohong tentang diskusi perusahaannya dengan Pentagon.

“Sayang sekali @DarioAmodei adalah pembohong dan memiliki kompleks dewa,” tulis Michael. “Dia tidak menginginkan apa pun selain mencoba mengontrol Militer AS secara pribadi dan baik-baik saja membahayakan keamanan bangsa kita. @DeptofWar akan SELALU mematuhi hukum tapi tidak tunduk pada keinginan satu perusahaan teknologi yang mencari untung.”

Ini hal yang menakjubkan untuk disaksikan jika kita mundur sejenak dan ingat bahwa semua ini tidak normal di era pra-Trump. Pimpinan militer tidak akan pernah secara terbuka menyerang CEO Amerika, menyebutnya pembohong dan berkata dia memiliki kompleks dewa. Itu tidak terjadi karena alasan kesopanan dan profesionalisme yang sederhana.

Tapi ini juga menunjukkan dua hal: Pertama, bahwa Pentagon sangat ingin menggunakan Claude, karena tweet Michael berbau keputusasaan. Kedua, mungkin kita harus sangat khawatir dengan apa yang ingin dilakukan militer dengan semua teknologi canggih yang mereka miliki ini. Atau, lebih tepatnya, teknologi canggih yang ingin mereka ambil dari perusahaan swasta.

Kita mungkin akan mengetahuinya sekitar pukul 17:01 ET.

Tinggalkan komentar