Eric Schmidt Menyarankan Negara-negara Dapat Terlibat dalam Malfunction AI Salin-menyalin Timbal Balik (MAIM)

Mantan CEO Google Eric Schmidt dan pendiri Scale AI Alexandr Wang adalah penulis bersama dalam sebuah makalah baru yang berjudul “Strategi Superinteligensi” yang memperingatkan terhadap pemerintah AS menciptakan Proyek Manhattan untuk yang disebut kecerdasan buatan umum (AGI) karena bisa dengan cepat lepas kendali di seluruh dunia. Inti dari argumen ini adalah bahwa pembuatan program seperti itu akan menyebabkan balasan atau sabotase oleh lawan sebagai negara-negara berlomba untuk memiliki kemampuan AI terkuat di medan perang. Sebaliknya, AS sebaiknya fokus pada pengembangan metode seperti serangan cyber yang dapat menonaktifkan proyek AI yang mengancam. Schmidt dan Wang adalah pendukung besar potensi AI untuk memajukan masyarakat melalui aplikasi seperti pengembangan obat dan efisiensi tempat kerja. Pemerintah, sementara itu, melihatnya sebagai medan pertahanan berikutnya, dan kedua pemimpin industri ini pada dasarnya mengkhawatirkan bahwa negara-negara akan berakhir dalam perlombaan untuk menciptakan senjata dengan potensi yang semakin berbahaya. Seperti dalam kesepakatan internasional yang telah mengendalikan pengembangan senjata nuklir, Schmidt dan Wang percaya bahwa negara-negara seharusnya bergerak lambat dalam pengembangan AI dan tidak jatuh ke dalam perlombaan satu sama lain dalam mesin pembunuh yang didukung AI. Pada saat yang sama, baik Schmidt maupun Wang sedang membangun produk AI untuk sektor pertahanan. White Stork milik mantan itu sedang membangun teknologi drone otonom, sementara Scale AI milik Wang minggu ini menandatangani kontrak dengan Departemen Pertahanan untuk menciptakan “agen” AI yang dapat membantu perencanaan dan operasi militer. Setelah bertahun-tahun enggan menjual teknologi yang bisa digunakan dalam perang, Silicon Valley kini dengan bangga berbaris untuk mengumpulkan kontrak pertahanan yang menguntungkan. Semua kontraktor pertahanan militer memiliki konflik kepentingan untuk mempromosikan perang kinetik, bahkan ketika tidak bermoral. Negara lain memiliki kompleks industri militer mereka sendiri, pikirannya, jadi AS perlu mempertahankan juga. Tapi pada akhirnya, orang-orang tak bersalah menderita dan mati sementara orang-orang berkuasa bermain catur. Palmer Luckey, pendiri Anduril yang disukai dalam teknologi pertahanan, telah berpendapat bahwa serangan drone berbasis AI yang ditargetkan lebih aman daripada meluncurkan nuklir yang bisa memiliki zona dampak lebih besar atau menanam ranjau darat yang tidak memiliki sasaran. Dan jika negara-negara lain akan terus membangun senjata AI, kita seharusnya memiliki kemampuan yang sama sebagai ancaman. Anduril telah memasok Ukraina dengan drone yang dapat menargetkan dan menyerang peralatan militer Rusia di atas garis musuh. Anduril baru-baru ini melakukan kampanye iklan yang menampilkan teks dasar “Bekerja di Anduril.com” yang ditutupi dengan kata “Jangan” ditulis dalam huruf besar gaya graffiti semprot, tampaknya bermain dengan gagasan bahwa bekerja untuk kompleks industri militer adalah budaya kontra sekarang. Schmidt dan Wang telah berargumen bahwa manusia seharusnya selalu tetap dalam pengambilan keputusan yang dibantu AI. Tetapi seperti yang baru-baru ini dilaporkan, militer Israel sudah mengandalkan program AI yang cacat untuk membuat keputusan mematikan. Drone telah lama menjadi topik yang memecah belah, karena kritikus mengatakan bahwa tentara lebih pasif ketika mereka tidak berada langsung di garis depan atau tidak melihat konsekuensi dari tindakan mereka secara langsung. AI pengenalan gambar terkenal membuat kesalahan, dan kita dengan cepat menuju titik di mana drone pembunuh akan terbang bolak-balik menghantam sasaran yang tidak presisi. Makalah Schmidt dan Wang membuat banyak asumsi bahwa AI segera akan menjadi “superinteligensi,” mampu melakukan tugas sebaik jika tidak lebih baik dari manusia. Itu adalah asumsi besar karena model “pemikiran” paling canggih terus menghasilkan kesalahan besar, dan perusahaan dijejali dengan aplikasi pekerjaan yang buruk ditulis dengan bantuan AI. Model-model ini adalah tiruan kasar dari manusia dengan perilaku yang sering tidak terduga dan aneh. Schmidt dan Wang menjual visi dunia dan solusi mereka. Jika AI akan sangat berkuasa dan berbahaya, pemerintah seharusnya pergi kepada mereka dan membeli produk mereka karena mereka adalah pelaku yang bertanggung jawab. Dalam hal yang sama, Sam Altman dari OpenAI telah dikritik karena membuat klaim-klaim besar tentang risiko AI, yang beberapa mengatakan adalah upaya untuk mempengaruhi kebijakan di Washington dan mendapatkan kekuasaan. Ini agak seperti mengatakan, “AI begitu kuat sehingga bisa menghancurkan dunia, tetapi kami memiliki versi aman yang senang kami jual kepada Anda.” Peringatan Schmidt kemungkinan tidak akan memiliki banyak dampak karena Presiden Trump menurunkan pedoman-pedoman era Biden seputar keselamatan AI dan mendorong AS untuk menjadi kekuatan dominan dalam AI. November lalu, sebuah komisi kongres mengusulkan Proyek Manhattan untuk AI yang diingatkan oleh Schmidt dan karena orang-orang seperti Sam Altman dan Elon Musk mendapatkan pengaruh yang lebih besar di Washington, mudah untuk melihatnya mendapatkan dukungan. Jika itu terus berlanjut, makalah itu memperingatkan, negara-negara seperti China mungkin akan membalas dengan cara seperti dengan sengaja merusak model atau menyerang infrastruktur fisik. Ini adalah ancaman yang tidak asing, karena China telah merusak jalan ke dalam perusahaan teknologi AS besar seperti Microsoft, dan yang lain seperti Rusia dilaporkan menggunakan kapal kargo untuk menyerang kabel optik bawah laut. Tentu saja, kita akan melakukan hal yang sama kepada mereka. Semua itu saling. Tidak jelas bagaimana dunia bisa mencapai kesepakatan untuk berhenti bermain dengan senjata-senjata ini. Dalam hal itu, gagasan merusak proyek AI untuk membela diri mungkin adalah hal yang baik.

MEMBACA  Penyedia Internet Terbaik di Miami Beach, Florida

Tinggalkan komentar