OpenAI Peringatkan bahwa Agen ChatGPT Baru Mereka Dapat Membantu Pengembangan Senjata Biologis Berbahaya (Tata letak visual yang menarik dengan spasi dan format yang tepat)

Produk terbaru OpenAI janji buat lebih mudah untuk ngumpulin data otomatis, bikin spreadsheet, pesan tiket, buat presentasi—dan mungkin aja, bikin senjata biologis. ChatGPT Agent, alat AI baru yang bisa bertindak untuk pengguna, adalah produk pertama OpenAI yang diklasifikasi punya risiko “tinggi” untuk bahaya biologis.

Ini artinya model ini bisa bantu orang awam untuk bikin ancaman biologis atau kimia. Menurut “Preparedness Framework” OpenAI, ini bisa berarti teror biologis atau kimia oleh kelompok non-negara jadi lebih sering terjadi.

“Mungkin ada yang pikir risiko biologis gak nyata, dan model cuma kasih info yang bisa dicari di internet. Mungkin itu benar tahun 2024, tapi sekarang sudah pasti gak begitu. Dari evaluasi kami dan para ahli, risikonya sangat nyata,” kata Boaz Barak, staf teknis OpenAI, di postingan media sosial.

“Kami gak bisa bilang pasti model ini bisa bikin orang awam bikin senjata biologis, tapi menurut saya gak bertanggung jawab kalau rilis model ini tanpa langkah pencegahan seperti yang kami lakukan,” tambahnya.

OpenAI bilang klasifikasi model ini sebagai risiko tinggi untuk penyalahgunaan biologis adalah “langkah hati-hati,” dan memicu tambahan pengamanan untuk alat ini.

Keren Gu, peneliti keamanan OpenAI, bilang meski belum ada bukti pasti model ini bisa bimbing orang awam bikin senjata biologis, tetap ada pengamanan. Pengamanan ini termasuk ChatGPT Agent menolak perintah yang berpotensi bikin senjata biologis, sistem yang menandai permintaan berbahaya untuk diperiksa ahli, aturan ketat yang blokir konten berisiko, respon cepat ke masalah, dan pengawasan ketat untuk penyalahgunaan.

Salah satu tantangan utama mengurangi risiko biologis adalah kemampuan yang sama bisa bikin terobosan medis yang nyawa orang, salah satu janji besar AI canggih.

MEMBACA  Saatnya bagi Uni Eropa untuk menyelesaikan masalah Orbán-nya

OpenAI semakin khawatir soal penyalahgunaan model untuk bikin senjata biologis. Di blog bulan lalu, mereka umumkan tambah tes keamanan untuk kurangi risiko model dipakai bantu bikin senjata biologis. Lab AI itu peringatkan tanpa langkah ini, model bisa bantu “orang awam” bikin senjata berbahaya.

“Berbeda dengan ancaman nuklir dan radiologi, bahan buat bikin ancaman biologis lebih mudah didapat, jadi keamanan lebih tergantung pada kurangnya pengetahuan dan skill lab,” kata Barak. “Berdasarkan evaluasi kami dan ahli luar, ChatGPT Agent yang gak dikendaliin bisa tutup celah pengetahuan itu dan kasih saran seperti ahli.”

ChatGPT Agent

Fitur baru ChatGPT OpenAI adalah usaha untuk masuk ke area AI paling menarik dan berisiko: agen.

Fitur ini kerja seperti asisten pribadi, bisa urus tugas kayak pesen restoran, belanja online, dan ngatur daftar kandidat kerja. Bedanya dengan versi lama, alat ini bisa pakai komputer virtual buat kontrol browser, interaksi dengan file, dan navigasi di app seperti spreadsheet dan presentasi.

Perusahaan gabung tim Operator (agen AI pertamanya) dan Deep Research (alat buat riset online multi-tahap) jadi satu tim yang kembangkan alat baru ini.

Lab AI sekarang berlomba bikin agen yang bisa urus tugas digital kompleks sendiri, dan peluncuran ini ikuti rilis serupa oleh Google dan Anthropic. Perusahaan teknologi besar lihat agen AI sebagai peluang bisnis, karena banyak perusahaan mulai pakai AI di kerjaan dan otomatisasi tugas.

OpenAI akui otonomi lebih besar bawa lebih banyak risiko, dan mereka tekankan kontrol pengguna untuk kurangi risiko. Misalnya, agen minta izin sebelum ambil tindakan penting dan bisa dihentikan atau diubah kapan aja oleh pengguna.

MEMBACA  Bagaimana Langkah Terbaru OpenAI dan Stripe Mengubah Wajah Belanja Online