Daftar Teratas Penggunaan Kecurangan AI yang Berbahaya Dimenangkan oleh Deepfakes Politik

Tetap terinformasi dengan pembaruan gratis

Pembuatan deepfake yang dihasilkan oleh kecerdasan buatan yang meniru politisi dan selebriti jauh lebih umum daripada upaya menggunakan kecerdasan buatan untuk membantu serangan cyber, menurut penelitian pertama oleh divisi Google DeepMind tentang penggunaan jahat paling umum dari teknologi canggih tersebut.

Studi tersebut mengatakan bahwa pembuatan gambar, video, dan audio orang yang realistis namun palsu hampir dua kali lebih umum daripada penyalahgunaan generative AI tools lainnya: pemalsuan informasi menggunakan alat berbasis teks, seperti chatbots, untuk menghasilkan informasi palsu yang akan diposting online.

Tujuan paling umum dari para pelaku yang menyalahgunakan generative AI adalah untuk membentuk atau mempengaruhi opini publik, analisis yang dilakukan dengan unit penelitian dan pengembangan Google, Jigsaw, menemukan. Itu menyumbang 27 persen dari penggunaan, memberikan kontribusi pada kekhawatiran tentang bagaimana deepfake mungkin mempengaruhi pemilihan umum di seluruh dunia tahun ini.

Anda sedang melihat gambaran singkat dari grafik interaktif. Ini kemungkinan karena tidak terhubung internet atau JavaScript dinonaktifkan di browser Anda.

Deepfake Perdana Menteri Inggris Rishi Sunak, serta pemimpin global lainnya, telah muncul di TikTok, X, dan Instagram dalam beberapa bulan terakhir. Pemilih Inggris akan memilih dalam pemilihan umum minggu depan.

Kekhawatiran meluas bahwa, meskipun upaya platform media sosial untuk menandai atau menghapus konten tersebut, audiens mungkin tidak mengenali hal tersebut sebagai palsu, dan penyebaran konten tersebut dapat memengaruhi pemilih.

Ardi Janjeva, peneliti di The Alan Turing Institute, menyebutkan bahwa penemuan dalam makalah tersebut bahwa kontaminasi informasi yang dapat diakses oleh publik dengan konten yang dihasilkan oleh AI dapat “menciderai pemahaman kolektif kita tentang realitas sosial politik” sangat relevan.

MEMBACA  Buruh Berusaha Memperketat Pemberantasan Pajak yang Direncanakan pada 'Non-Doms'

Janjeva menambahkan: “Meskipun kita tidak yakin tentang dampak deepfake pada perilaku pemilih, distorsi ini mungkin lebih sulit untuk dikenali dalam jangka pendek dan menyebabkan risiko jangka panjang bagi demokrasi kita.”

Studi ini adalah yang pertama dari jenisnya oleh DeepMind, unit AI Google yang dipimpin oleh Sir Demis Hassabis, dan merupakan upaya untuk mengkuantifikasi risiko dari penggunaan generative AI tools, yang telah dirilis oleh perusahaan teknologi terbesar di dunia untuk mencari keuntungan besar.

Saat produk generative seperti ChatGPT dari OpenAI dan Gemini dari Google semakin banyak digunakan, perusahaan AI mulai memantau banjir misinformasi dan konten berbahaya atau tidak etis lainnya yang dihasilkan oleh alat-alat mereka.

Pada bulan Mei, OpenAI merilis penelitian yang mengungkapkan bahwa operasi yang terkait dengan Rusia, China, Iran, dan Israel telah menggunakan alatnya untuk membuat dan menyebarkan disinformasi.

“Ada banyak kekhawatiran yang wajar seputar serangan cyber yang cukup canggih yang difasilitasi oleh alat-alat ini,” kata Nahema Marchal, penulis utama studi dan peneliti di Google DeepMind. “Sementara apa yang kami lihat adalah penyalahgunaan GenAI yang cukup umum [seperti deepfake yang] mungkin lebih tidak terdeteksi sedikit.”

Peneliti Google DeepMind dan Jigsaw menganalisis sekitar 200 insiden penyalahgunaan antara Januari 2023 dan Maret 2024, yang diambil dari platform media sosial X dan Reddit, serta blog online dan laporan media tentang penyalahgunaan.

Motivasi kedua paling umum di balik penyalahgunaan adalah untuk menghasilkan uang, baik dengan menawarkan layanan untuk membuat deepfake, termasuk menghasilkan gambar telanjang orang sungguhan, atau menggunakan generative AI untuk membuat sejumlah konten, seperti artikel berita palsu.

Penelitian menemukan bahwa kebanyakan insiden menggunakan alat yang mudah diakses, “memerlukan keahlian teknis minimal”, sehingga lebih banyak pelaku buruk dapat menyalahgunakan generative AI.

MEMBACA  Aturan pensiun 'pemikiran sehat' pemerintahan Biden dapat menghemat pekerja $5 miliar setiap tahun

Penelitian Google DeepMind akan memengaruhi cara perusahaan ini meningkatkan evaluasi untuk menguji model untuk keamanan, dan diharapkan juga akan memengaruhi cara pesaing dan pemangku kepentingan lain melihat bagaimana “kerugian terwujud”.