Penipuan deepfake telah menguras $1.1 miliar dari rekening perusahaan AS di tahun 2025, naik tiga kali lipat dari $360 juta di tahun sebelumnya. Di pertengahan tahun lalu, insiden yang tercatat sudah empat kali lipat dari total tahun 2024. Dan banyak tim komunikasi perusahaan serta tim merek masih belum siap, ini berbahaya.
Para eksekutif sekarang menghadapi ancaman sintetis dari dua arah: wajah mereka dijiplak untuk mengizinkan transfer penipuan atau merusak reputasi, dan suara buatan AI yang meniru pejabat pemerintah, anggota dewan, serta rekan bisnis yang digunakan untuk memanipulasi mereka.
Pada 2019, seorang eksekutif perusahaan energi Inggris menerima telepon dari seseorang yang dikiranya adalah bos utamanya. Aksen dan cara bicaranya terdengar benar, bahkan ritme bicaranya mirip. Baru setelah mentransfer $243,000 mereka tahu suara di telepon itu adalah buatan AI. Tahun lalu, penipu menjiplak suara Menteri Pertahanan Italia dan menelepon para elit bisnis di negara itu. Setidaknya satu orang mengirim hampir €1 juta sebelum tahu itu penipuan.
Tapi merek-merek ini masih beruntung. Bayangkan dampaknya jika video sintetis CEO kamu yang berkomentar tidak pantas, mengumumkan merger palsu, atau mengkritik regulator tersebar cepat di media sosial sebelum tim kamu bisa merespon. Deepfake bukan lagi hal aneh di dunia keamanan siber. Sekarang ini adalah ancaman keamanan, risiko finansial, dan bahaya besar untuk reputasi.
Kesenjangan komunikasi lebih lebar dari kesenjangan keamanan
Kebanyakan pembahasan ancaman deepfake fokus pada algoritma deteksi dan protokol verifikasi. Perusahaan keamanan siber menawarkan solusi, dan departemen IT memperbarui kebijakan. Namun, sedikit yang membahas pertanyaan penting untuk CMO dan CCO: Apa yang terjadi pada merek kamu jika wajah CEO kamu digunakan untuk penipuan, disinformasi, atau serangan karakter?
Saya sudah dua dekade menasihati eksekutif menghadapi krisis reputasi, termasuk investigasi regulator dan kampanye media yang bermusuhan. Sudah ada panduan untuk situasi seperti ini. Tapi, tidak ada protokol yang jelas untuk insiden seperti wajah sintetis CEO yang mengizinkan akuisisi penipuan atau video palsu pendiri perusahaan yang menjadi viral.
Visibilitas eksekutif sekarang punya dua sisi
Setiap posting media sosial, pidato utama, penampilan di podcast, dan panggilan laporan keuangan yang melibatkan CEO kamu menyediakan data pelatihan potensial untuk penyerang. Visibilitas yang membangun merek eksekutif dan membuat kepemimpinan terlihat manusiawi juga menyediakan sampel suara dan peta wajah yang dibutuhkan untuk media sintetis.
Tidak setiap serangan berhasil. Tahun lalu, penipu menarget CEO sebuah perusahaan iklan global. Mereka membuat akun WhatsApp palsu pakai fotonya, mengatur panggilan Microsoft Teams dengan suara kloning AI yang dilatih dari rekaman YouTube, dan meminta seorang eksekutif senior untuk mendanai usaha bisnis baru. Karyawan itu menolak dan perusahaan tidak kehilangan apa-apa, tapi kecanggihan upaya itu menunjukkan sejauh mana teknologi ini sudah berkembang.
Jumlah deepfake naik dari 500,000 di 2023 menjadi lebih dari delapan juta di 2025. Penipuan kloning suara naik 680 persen dalam satu tahun. Kerugian yang diproyeksikan dari penipuan berbantuan AI diperkirakan mencapai $40 miliar pada 2027. Namun, hanya 32 persen eksekutif perusahaan yang percaya organisasi mereka siap menangani insiden deepfake.
Tiga pertanyaan yang harus dijawab setiap tim komunikasi sekarang
Pertama, apakah kamu punya protokol pengumuman untuk serangan media sintetis? Jika replika buatan AI dari CEO kamu digunakan untuk penipuan atau disinformasi, siapa yang berkomunikasi, kapan, dan melalui saluran apa?
Kedua, apakah kamu sudah melakukan latihan simulasi deepfake? Simulasi krisis sekarang harus memasukkan skenario di mana wajah seorang eksekutif digunakan untuk penipuan internal, disinformasi eksternal, atau keduanya.
Ketiga, apakah kamu sudah mengkoordinasikan urutan respons dengan bagian hukum, keamanan siber, dan hubungan investor? Krisis deepfake adalah peristiwa penipuan, kewajiban pengungkapan potensial, dan darurat merek sekaligus. Tanggapan yang terpisah-pisah akan gagal.
Bertindaklah sebelum serangan terjadi
Perusahaan yang akan bertahan di era ini sedang membangun protokol krisis sekarang, sebelum wajah eksekutif mereka muncul di video yang tidak pernah mereka rekam, mengatakan hal yang tidak pernah mereka ucapkan, mengizinkan transaksi yang tidak pernah mereka setujui. Wajah CEO kamu adalah aset merek. Itu juga bisa menjadi sasaran serangan.
Tim komunikasi dan merek yang menganggap deepfake adalah masalah orang lain—masalah keamanan siber, urusan IT, masalah penipuan untuk bagian keuangan—akan menemukan diri mereka membuat permintaan maaf bukannya strategi.
Pendapat yang diungkapkan dalam tulisan komentar Fortune.com adalah pandangan penulisnya saja dan tidak selalu mencerminkan pendapat dan keyakinan Fortune.