Teknolog Bruce Schneier tentang keamanan, masyarakat, dan mengapa kita membutuhkan model AI publik.

Dalam pidato utamanya di Konferensi Fusion Secure Open Source Software (SOSS) di Atlanta, pakar keamanan terkemuka Bruce Schneier membahas janji dan ancaman kecerdasan buatan (AI) untuk keamanan cyber dan masyarakat.

Schneier membuka dengan mengatakan, “AI adalah kata yang rumit. Ketika saya memikirkan bagaimana teknologi menggantikan manusia, saya menganggapnya meningkat dalam satu atau lebih dari empat dimensi: kecepatan, skala, cakupan, dan kompleksitas. AI tidak lebih baik dalam pelatihan daripada manusia. Mereka hanya lebih cepat.” Di mana hal itu menjadi menarik adalah ketika kecepatan itu secara fundamental mengubah segalanya.

Misalnya, katanya, “Perdagangan frekuensi tinggi (HFT) bukan hanya perdagangan yang lebih cepat. Ini adalah jenis hewan yang berbeda. Inilah mengapa kita khawatir tentang AI, media sosial, dan demokrasi. Ruang lingkup dan skala agen AI begitu besar sehingga mereka mengubah sifat media sosial.” Misalnya, bot politik AI sudah memengaruhi pemilihan AS.

Salah satu kekhawatiran yang dikemukakan Schneier adalah bahwa AI membuat kesalahan yang tidak seperti yang dibuat oleh orang. “AI akan membuat lebih banyak kesalahan sistematis,” katanya. “AI pada titik ini tidak memiliki landasan akal sehat dasar yang dimiliki manusia.” Kurangnya akal sehat ini dapat menyebabkan kesalahan yang merajalela ketika AI diterapkan pada proses pengambilan keputusan kritis.

Bukan berarti AI tidak bisa berguna – mereka bisa. Schneier memberikan contoh: “AI dapat memonitor jaringan dan melakukan pemindaian kode sumber dan kerentanan. Ini semua adalah area di mana manusia bisa melakukannya, tetapi kita terlalu lambat untuk ketika hal-hal terjadi secara real time. Bahkan jika AI dapat melakukan pekerjaan meninjau semua kode sumber dengan sedang, itu akan luar biasa, dan akan ada banyak pekerjaan di semua area ini.”

MEMBACA  Sony Menutup Game Tembak-menembak Concord Setelah Hanya Dua Minggu

Secara khusus, lanjutnya, “Saya pikir kita akan melihat AI melakukan tingkat pertama triase dengan masalah keamanan. Saya melihat mereka sebagai asisten forensik yang membantu menganalisis data. Kita mendapatkan banyak data tentang pelaku ancaman dan tindakan mereka, dan kita memerlukan seseorang untuk melihatnya.”

Schneier menyarankan bahwa AI dapat membantu mengisi kesenjangan ini. Meskipun AI tidak dapat menggantikan ahli manusia (setidaknya belum), mereka dapat membantu: “AI bisa menjadi bawahan kita. Mereka baik. Mereka tidak terlalu pintar. Tapi mereka dapat membuat manusia lebih efisien dengan mengoutsourcing sebagian dari pekerjaan yang membosankan.”

Pakar keamanan Bruce Schneier di SOSS Fusion 2024. Steven Vaughan-Nichols/ZDNET

Ketika berbicara tentang penggunaan AI dalam keamanan, Schneier mengatakan, “Ini akan menjadi perlombaan senjata, tetapi pada awalnya, saya pikir para pembela akan lebih baik. Kami sudah diserang dengan kecepatan komputer. Kemampuan untuk bertahan dengan kecepatan komputer akan sangat valid.”

Sayangnya, sistem AI masih memiliki jalan yang panjang sebelum mereka dapat membantu kita secara independen. Schneier mengatakan bagian dari masalahnya adalah bahwa “kita tahu bagaimana bawahan manusia membuat kesalahan, dan kami memiliki ribuan tahun sejarah menangani kesalahan manusia. Tapi AI membuat jenis kesalahan yang berbeda, dan intuisi kita akan gagal, dan kita perlu mencari cara baru untuk mengaudit dan meninjau untuk memastikan kesalahan tipe AI tidak merusak pekerjaan kita.”

Schneier mengatakan berita buruknya adalah bahwa kita buruk dalam mengenali kesalahan AI. Namun, “kita akan menjadi lebih baik dalam hal itu, memahami keterbatasan AI dan bagaimana melindungi dari mereka. Kita akan mendapatkan analisis yang jauh lebih baik tentang apa yang baik dilakukan AI dan keputusan apa yang dibuat, dan juga melihat apakah kita membantu manusia versus menggantikan mereka. Kita akan mencari cara untuk menggantikan orang.”

MEMBACA  Perubahan Teknologi dan Dampaknya terhadap Ketenagakerjaan

Saat ini, “insentif ekonomi adalah menggantikan manusia dengan alternatif yang lebih murah,” tetapi itu seringkali bukan jawaban yang tepat. “Pada akhirnya, perusahaan akan menyadari hal itu, tetapi terlalu sering saat ini, mereka akan menempatkan AI bertanggung jawab atas pekerjaan yang sebenarnya tidak mampu dilakukan.”

Schneier juga membahas konsentrasi kekuatan pengembangan AI di tangan beberapa perusahaan teknologi besar. Dia menganjurkan untuk menciptakan model AI publik yang benar-benar transparan dan dikembangkan dengan manfaat sosial daripada motif keuntungan. “Kita memerlukan model AI yang bukan milik perusahaan,” kata Schneier. “Harapan saya adalah bahwa era membakar tumpukan uang besar untuk membuat model dasar akan bersifat sementara.”

Mengenang ke depan, Schneier menyatakan optimisme hati-hati tentang potensi AI untuk meningkatkan proses demokratis dan keterlibatan warga dengan pemerintah. Dia menyoroti beberapa inisiatif nirlaba yang bekerja untuk memanfaatkan AI untuk akses legislatif yang lebih baik dan partisipasi.

“Bisakah kita membangun sistem untuk membantu orang terlibat dengan legislator mereka dan memberikan komentar pada rancangan undang-undang yang penting bagi mereka?” tanya Schneier. “AI memainkan peran dalam hal itu, baik dalam terjemahan bahasa, yang merupakan kemenangan besar bagi AI dalam rangkuman rancangan undang-undang, dan di belakang layar merangkum komentar untuk sistem mengirimkan kepada legislator.”

Seiring dengan perkembangan pesat AI, Schneier mengatakan akan ada kebutuhan yang meningkat untuk desain sistem yang berpikir dan kerangka kerja regulasi untuk mengurangi risiko sambil memanfaatkan manfaat teknologi tersebut. Kita tidak bisa mengandalkan perusahaan untuk melakukannya. Kepentingan mereka bukanlah kepentingan rakyat. Saat AI terintegrasi ke dalam aspek kritis keamanan dan masyarakat, kita harus mengatasi masalah ini lebih awal daripada nanti.

MEMBACA  Cara mengatur dan menggunakan fitur darurat penyelamatan hidup di ponsel Anda

Tinggalkan komentar