OpenAI Mengatakan ChatGPT Kemungkinan Tidak Akan Membuat Senjata Biologi

OpenAI merilis sebuah studi yang dilakukan oleh perusahaan mengenai efektivitas GPT-4 dalam menciptakan senjata biologi pada hari Rabu. Perusahaan menemukan bahwa kecerdasan buatan mereka hanya memiliki risiko kecil dalam membantu seseorang dalam menciptakan ancaman biologi. Banyak pembicaraan mengenai kekhawatiran tentang kecerdasan buatan yang dapat mempercepat kehancuran kita, tetapi OpenAI ingin Anda tahu bahwa Anda aman… mungkin saja!

Kenapa Semua Menggugat Perusahaan Kecerdasan Buatan? | Teknologi Masa Depan

“Kami menemukan bahwa GPT-4 hanya memberikan sedikit peningkatan dalam akurasi menciptakan ancaman biologi,” kata OpenAI dalam sebuah blog pada hari Rabu, terkait dengan evaluasi yang melibatkan ahli biologi dan mahasiswa biologi. “Meskipun peningkatan ini belum cukup besar untuk menjadi kesimpulan, temuan kami menjadi titik awal untuk penelitian lanjutan dan diskusi komunitas.”

Jadi mengapa OpenAI merilis studi ini untuk memberi tahu kita bahwa ChatGPT hanya akan sedikit membantu seseorang dalam menciptakan senjata biologi? Dalam Perintah Eksekutif AI Presiden Biden pada bulan Oktober lalu, Gedung Putih menyoroti kekhawatiran bahwa kecerdasan buatan dapat “secara signifikan menurunkan hambatan untuk terlibat” dalam menciptakan senjata biologi. Dalam menghadapi tekanan dari para pembuat kebijakan, OpenAI ingin meredakan kekhawatiran kita bahwa model bahasa mereka yang besar hampir tidak membantu sama sekali dalam menciptakan senjata biologi. Namun, tampaknya mereka sedikit membantu. Tapi hei, apa itu beberapa persen ketika hasilnya adalah, oh, saya tidak tahu, akhir dari umat manusia?

OpenAI mengumpulkan 50 ahli biologi dengan gelar doktor dan 50 mahasiswa universitas yang telah mengambil satu kursus biologi. 100 peserta dibagi menjadi kelompok kontrol dan kelompok perlakuan, di mana kelompok kontrol hanya bisa menggunakan Internet, sedangkan kelompok perlakuan bisa menggunakan internet dan GPT-4. Kemudian mereka diminta untuk membuat rencana untuk menciptakan dan melepaskan senjata biologi dari awal hingga akhir.

MEMBACA  Harga, ketersediaan, spesifikasi Rimac Verne Robotaxi

Peserta diberikan model ‘hanya untuk penelitian’ dari GPT-4 agar model tersebut dapat menjawab pertanyaan tentang senjata biologi. Biasanya, GPT-4 tidak akan menjawab pertanyaan yang dianggap berbahaya. Namun, banyak orang yang telah menemukan cara untuk membobol ChatGPT untuk mengatasi masalah seperti ini.

Rencana senjata biologi dinilai berdasarkan skala 1-10 untuk akurasi, kelengkapan, inovasi, dan efisiensi. Para ahli biologi menunjukkan peningkatan 8,8% dalam akurasi dalam menciptakan senjata biologi ketika menggunakan GPT-4, dibandingkan hanya dengan internet, sementara mahasiswa biologi mengalami peningkatan hanya sebesar 2,5%. GPT-4 juga memiliki efek serupa dalam meningkatkan kelengkapan senjata biologi, dengan para ahli mengalami peningkatan 8,2%, sementara mahasiswa menunjukkan peningkatan 4,1% dalam kelengkapan.

OpenAI mengatakan angka-angka ini “belum cukup besar untuk menjadi signifikan secara statistik.” Tampaknya kemampuan GPT-4 untuk memberikan informasi spesifik secara efisien dapat sedikit meningkatkan kemampuan seseorang dalam membangun senjata biologi dengan akurat dan lengkap. Namun, perusahaan tersebut mencatat bahwa akses informasi saja tidak cukup untuk menciptakan ancaman biologi, dan mereka tidak menguji bagaimana GPT-4 dapat membantu dalam konstruksi fisik ancaman tersebut.

Perusahaan mengatakan bahwa penelitian lebih lanjut diperlukan untuk menggali lebih dalam mengenai topik ini. Informasi tentang senjata biologi relatif mudah diakses di internet dengan atau tanpa kecerdasan buatan. Ada kekhawatiran besar tentang bahaya kecerdasan buatan saat ini, tetapi OpenAI ingin Anda tenang karena sekarang hanya sedikit lebih mudah untuk menciptakan senjata biologi.