OpenAI melihat upaya terus menerus oleh pelaku ancaman untuk menggunakan modelnya untuk mempengaruhi pemilihan.

(Reuters) – OpenAI telah melihat sejumlah upaya di mana model AI-nya telah digunakan untuk menghasilkan konten palsu, termasuk artikel panjang dan komentar media sosial, yang bertujuan untuk memengaruhi pemilihan, pembuat ChatGPT mengatakan dalam laporan pada hari Rabu.

Cybercriminal semakin menggunakan alat AI, termasuk ChatGPT, untuk membantu dalam kegiatan jahat mereka seperti menciptakan dan debugging malware, dan menghasilkan konten palsu untuk situs web dan platform media sosial, kata perusahaan rintisan tersebut.

Hingga saat ini tahun ini, sudah lebih dari 20 upaya seperti itu dinetralisir, termasuk serangkaian akun ChatGPT pada bulan Agustus yang digunakan untuk menghasilkan artikel tentang topik-topik yang termasuk pemilihan di Amerika Serikat, kata perusahaan tersebut.

Juga, perusahaan tersebut melarang sejumlah akun dari Rwanda pada bulan Juli yang digunakan untuk menghasilkan komentar tentang pemilihan di negara tersebut untuk diposting di situs media sosial X.

Tidak ada dari kegiatan yang mencoba mempengaruhi pemilihan global menarik keterlibatan viral atau audiens yang berkelanjutan, tambah OpenAI.

Ada kekhawatiran yang semakin meningkat tentang penggunaan alat AI dan situs media sosial untuk menghasilkan dan menyebarkan konten palsu terkait pemilihan, terutama ketika AS bersiap untuk pemilihan presiden.

Menurut Departemen Keamanan Dalam Negeri AS, AS melihat ancaman yang semakin meningkat dari Rusia, Iran, dan Tiongkok yang mencoba memengaruhi pemilihan 5 November, termasuk dengan menggunakan AI untuk menyebarkan informasi palsu atau memecah belah.

OpenAI mengukuhkan posisinya sebagai salah satu perusahaan swasta terberharga di dunia pekan lalu setelah putaran pendanaan sebesar $6.6 miliar.

ChatGPT memiliki 250 juta pengguna aktif mingguan sejak diluncurkan pada November 2022.

MEMBACA  Harris menantang Trump untuk debat presiden AS kedua | Berita Pemilihan AS 2024

Tinggalkan komentar