Serangan AS dan Israel ke Iran: Bukti Keterlibatan Kecerdasan Buatan dalam Operasi Militer

TEHERAN – Perusahaan Antropic memberikan penjelasan mengapa mereka menolak mengizinkan teknologi AI miliknya dipakai untuk keperluan militer.

Anthropic, pengembang kecerdasan buatan (AI), telah klarifikasi soal penolakan mereka memberikan akses tak terbatas ke model AI Claude miliknya kepada militer AS, setelah kerjasama antara kedua pihak berakhir pekan lalu.

Sebelumnya, Pentagon melalui Departemen Pertahanan memerintahkan Anthropic untuk mengizinkan pemakaian Claude untuk semua tujuan yang "sah".

Namun, perusahaan tersebut menolaknya, terutama dalam dua hal: penggunaan AI untuk pengawasan massal warga AS dan untuk senjata otonom.

Akibat penolakan itu, Anthropic dicap sebagai risiko dalam rantai pasok pertahanan – label yang biasanya diberikan pada pihak asing.

CEO-nya, Dario Amodei, dalam wawancara dengan CBS, menyatakan bahwa waktu tiga hari yang diberikan kepada pemerintah AS untuk memutuskan terlalau singkat.

Dia juga mengklaim ada perubahan dalam naskah perjanjian yang memungkinkan alasan "keamanan nasional" digunakan untuk memperluas pemakaian Claude di luar konteks militer.

Amodei menekankan, saat ini belum ada model AI yang cukup matang untuk memastikan sistem senjata yang dikembangkan tidak akan melakukan kesalahan fatal.

MEMBACA  Jangan Tambah Rusak Lagi, Mas Rommy!

Tinggalkan komentar