OpenAI Jelaskan Cara Agen AI Mereka Menghindari Tautan Berbahaya

AI agent dapat melakukan berbagai tugas untuk pengguna, yang seringkali melibatkan kontrol atas peramban web, penyortiran email, dan interaksi dengan internet secara luas. Mengingat banyaknya lokasi di internet yang dapat mencuri data pribadi atau menyebabkan bahaya lain, sangat penting agar agen-agen ini memahami apa yang mereka lakukan.

Oleh karena itu, seiring peralihan pengguna dari peramban web dan Google Search ke peramban serta agen berbasis AI, perusahaan seperti OpenAI perlu memastikan alat-alat ini tidak langsung terjebak upaya phishing atau mengklik tautan berbahaya.

Dalam sebuah postingan blog baru, OpenAI menjelaskan secara rinci cara agen AI mereka melindungi pengguna.

Salah satu solusi yang mungkin adalah dengan OpenAI mengadopsi daftar terkurasi situs web tepercaya yang boleh diakses oleh agennya. Namun, seperti yang dijelaskan perusahaan dalam blog tersebut, pendekatan itu akan terlalu membatasi dan dapat merugikan pengalaman pengguna. Sebagai gantinya, OpenAI menggunakan sesuatu yang disebut indeks web independen, yang mencatat URL publik yang sudah diketahui keberadaannya di internet, terlepas dari data pengguna mana pun.

Jadi, jika sebuah URL tercantum dalam indeks, maka agen AI dapat membukanya tanpa masalah. Jika tidak, pengguna akan melihat peringatan yang meminta izin mereka untuk melanjutkan.

Anda mungkin melihat ini jika agen mencoba mengakses sesuatu yang seharusnya tidak. Kredit: OpenAI

SEBAGAI REFERENSI:
OpenAI luncurkan prediksi usia untuk keselamatan remaja

Seperti yang dijelaskan OpenAI, “Ini menggeser pertanyaan keamanan dari ‘Apakah kita mempercayai situs ini?’ menjadi ‘Apakah alamat spesifik ini pernah muncul secara publik di web terbuka dengan cara yang tidak bergantung pada data pengguna?'”

Anda dapat melihat penjelasan teknis yang lebih mendalam dalam makalah riset panjang yang diterbitkan OpenAI tahun lalu, tetapi intinya adalah halaman web dapat memanipulasi agen AI untuk melakukan hal-hal yang tidak seharusnya. Salah satu bentuk umum dari ini adalah prompt injection, yang memberikan instruksi terselubung pada model AI untuk mengambil data sensitif atau membahayakan keamanan siber Anda.

MEMBACA  15 Penawaran Ponsel Terbaik untuk Amazon Prime Day Oktober 2025: Rekomendasi Favorit Saya

Perlu dicatat, seperti dinyatakan OpenAI, ini hanyalah satu lapisan keamanan yang tidak menjamin bahwa apa yang akan diklik sepenuhnya aman. Situs web dapat mengandung rekayasa sosial atau konten berbahaya lain yang belum tentu dapat dikenali oleh agen AI.


Keterangan: Ziff Davis, perusahaan induk Mashable, pada April 2025 mengajukan gugatan terhadap OpenAI dengan tuduhan telah melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.

Tinggalkan komentar