OpenAI bekerja sama dengan Laboratorium Nasional Los Alamos untuk mempelajari bagaimana kecerdasan buatan dapat digunakan untuk melawan ancaman biologis yang dapat diciptakan oleh non-pakar menggunakan alat kecerdasan buatan, menurut pengumuman Rabu oleh kedua organisasi tersebut. Laboratorium Los Alamos, yang pertama kali didirikan di New Mexico selama Perang Dunia II untuk mengembangkan bom atom, menyebut upaya tersebut sebagai studi “pertama kali” tentang keamanan bio kecerdasan buatan dan cara-cara kecerdasan buatan dapat digunakan dalam pengaturan laboratorium.
Perbedaan antara dua pernyataan yang dirilis Rabu oleh OpenAI dan laboratorium Los Alamos cukup mencolok. Pernyataan OpenAI mencoba menggambarkan kemitraan tersebut sebagai sekadar studi tentang bagaimana kecerdasan buatan “dapat digunakan dengan aman oleh ilmuwan dalam pengaturan laboratorium untuk memajukan penelitian biosains.” Dan namun laboratorium Los Alamos menekankan lebih pada fakta bahwa penelitian sebelumnya “menemukan bahwa ChatGPT-4 memberikan peningkatan ringan dalam memberikan informasi yang dapat mengarah pada penciptaan ancaman biologis.”
Sebagian besar diskusi publik tentang ancaman yang ditimbulkan oleh kecerdasan buatan telah berpusat pada penciptaan entitas yang menyadari diri yang pada dasarnya dapat mengembangkan pikiran sendiri dan merugikan umat manusia dengan cara tertentu. Beberapa khawatir bahwa mencapai AGI – kecerdasan umum canggih, di mana kecerdasan buatan dapat melakukan penalaran dan logika canggih daripada bertindak sebagai penyedia kata-kata otomatis yang mewah – bisa menyebabkan situasi gaya Skynet. Dan sementara banyak pendukung kecerdasan buatan seperti Elon Musk dan CEO OpenAI Sam Altman telah mendukung karakterisasi ini, tampaknya ancaman yang lebih mendesak untuk diatasi adalah memastikan orang tidak menggunakan alat seperti ChatGPT untuk membuat senjata biologi.
“Ancaman biologis yang diaktifkan oleh kecerdasan buatan bisa menimbulkan risiko signifikan, namun penelitian yang ada belum menilai bagaimana model multimodal, pertama bisa menurunkan hambatan bagi non-pakar untuk menciptakan ancaman biologis,” kata laboratorium Los Alamos dalam pernyataan yang dipublikasikan di situs webnya.
Posisi pesan dari kedua organisasi tersebut kemungkinan besar terkait dengan fakta bahwa OpenAI mungkin merasa tidak nyaman dengan mengakui implikasi keamanan nasional untuk menyoroti bahwa produknya dapat digunakan oleh teroris. Untuk menekankan lebih lanjut, pernyataan Los Alamos menggunakan istilah “ancaman” atau “ancaman” sebanyak lima kali, sementara pernyataan OpenAI hanya menggunakan satu kali.
“Peluang besar untuk meningkatkan kemampuan kecerdasan buatan tidak terbatas,” kata Erick LeBrun, seorang ilmuwan penelitian di Los Alamos, dalam pernyataan Rabu. “Namun, mengukur dan memahami potensi bahaya atau penyalahgunaan kecerdasan buatan canggih terkait ancaman biologis masih sebagian besar belum dieksplorasi. Kerja sama ini dengan OpenAI adalah langkah penting menuju pembentukan kerangka kerja untuk mengevaluasi model-model saat ini dan di masa depan, memastikan pengembangan dan implementasi teknologi kecerdasan buatan yang bertanggung jawab.”