Banyak alat kloning suara AI tidak aman dari penipu, Consumer Reports temukan

Teknologi kloning suara AI telah membuat kemajuan luar biasa dalam beberapa tahun terakhir, mencapai kemampuan untuk membuat audio yang terdengar realistis dari hanya beberapa detik sampel. Meskipun ini memiliki banyak aplikasi positif – seperti buku audio, materi pemasaran, dan lainnya – teknologi ini juga dapat dieksploitasi untuk penipuan rumit, penipuan, dan aplikasi berbahaya lainnya.

Untuk mengetahui lebih lanjut tentang perlindungan yang saat ini ada untuk produk-produk ini, Consumer Reports menilai enam alat kloning suara terkemuka: Descript, ElevenLans, Lovo, PlayHT, Resemble AI, dan Speechify. Secara khusus, Consumer Reports mencari perlindungan yang tepat yang mencegah kloning suara seseorang tanpa sepengetahuan mereka.

Hasilnya menemukan bahwa empat dari enam produk – dari ElevenLabs, Speechify, PlayHT, dan Lovo – tidak memiliki mekanisme teknis yang diperlukan untuk mencegah kloning suara seseorang tanpa sepengetahuan mereka atau untuk membatasi kloning AI hanya pada suara pengguna. Sebaliknya, perlindungan terbatas pada kotak yang harus dicentang oleh pengguna, mengkonfirmasi bahwa mereka memiliki hak legal untuk mengkloning suara tersebut. Para peneliti menemukan bahwa Descript dan Resemble AI adalah satu-satunya perusahaan dengan langkah-langkah tambahan yang membuat lebih sulit bagi pelanggan untuk melakukan kloning tanpa persetujuan.

Descript meminta pengguna untuk membaca dan merekam pernyataan persetujuan dan menggunakan audio tersebut untuk menghasilkan klon. Resemble AI mengambil pendekatan yang berbeda, memastikan bahwa klon suara pertama yang dibuat didasarkan pada audio yang direkam secara real time. Metode itu tidak tidak dapat ditembus, karena pengguna dapat menekan play pada potongan AI klon lain atau video yang ada di perangkat lain.

Penggunaan umum kloning tanpa persetujuan adalah menipu orang. Sebagai contoh, serangan populer melibatkan kloning suara anggota keluarga dan kemudian menggunakan rekaman itu untuk menghubungi orang yang dicintai untuk meminta uang agar mereka dapat keluar dari situasi yang sulit. Karena korban mengira mereka mendengar suara anggota keluarga dalam kesulitan, mereka lebih cenderung mengirimkan dana yang diperlukan tanpa mempertanyakan situasi tersebut.

MEMBACA  Rencana AS untuk mencari pengakuan bersalah dari Boeing atas kecelakaan fatal 737 Max

Kloning suara juga telah digunakan untuk mempengaruhi keputusan pemilih dalam pemilihan yang akan datang, seperti yang terjadi dalam pemilihan 2024 ketika seseorang mengkloning suara mantan Presiden Joe Biden untuk menghalangi orang datang ke tempat pemungutan suara.

Consumer Reports juga menemukan bahwa Speechify, Lovo, PlayHT, dan Descript hanya memerlukan email dan nama untuk pengguna membuat akun. Consumer Reports merekomendasikan agar perusahaan-perusahaan ini juga mengumpulkan informasi kartu kredit pelanggan untuk melacak audio yang curang kembali ke pelaku buruk.

Rekomendasi lain dari Consumer Reports termasuk mekanisme untuk memastikan kepemilikan suara, seperti membaca skrip unik, memberi tanda air pada audio yang dihasilkan AI, membuat alat yang mendeteksi gambar yang dihasilkan AI, mendeteksi dan mencegah kloning suara dari tokoh berpengaruh atau publik, dan melarang audio yang mengandung frasa penipuan.

Perbedaan terbesar dari sistem saat ini akan menjadi proposal Consumer Report untuk memiliki seseorang yang mengawasi kloning suara daripada metode lakukan sendiri saat ini. Consumer Reports juga mengatakan bahwa harus ada penekanan pada membuat para pelaku memahami tanggung jawab hukum mereka jika model suara disalahgunakan dalam perjanjian kontrak.

Consumer Reports percaya bahwa perusahaan memiliki kewajiban kontraktual berdasarkan Bagian 5 Undang-Undang Komisi Perdagangan Federal untuk melindungi produk mereka dari digunakan untuk tujuan yang merugikan, yang hanya dapat dilakukan dengan menambahkan perlindungan lebih.

Jika Anda menerima panggilan mendesak dari seseorang yang Anda kenal menuntut uang, jangan panik. Gunakan perangkat lain untuk langsung menghubungi orang tersebut untuk memverifikasi permintaan tersebut. Jika Anda tidak dapat menghubungi orang tersebut, Anda juga dapat mengajukan pertanyaan kepada penelpon untuk memverifikasi identitas mereka.

Untuk daftar lengkap cara melindungi diri dari panggilan penipuan AI, lihat saran ZDNET di sini.

MEMBACA  Lebih dari 7.500 warga Suriah telah kembali ke rumah

Tinggalkan komentar