Gambar: WhataWin/iStock/Getty Images Plus
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
**Poin-Poin Penting ZDNET**
* Semakin kuat kecerdasan buatan, semakin banyak aktor ancaman yang akan memanfaatkannya untuk menyerang.
* Organisasi dan individu harus menyamai kegigihan lawan mereka.
* Para ahli merekomendasikan praktik terbaik untuk menghindari bencana.
Kapan terakhir kali Anda bertanya-tanya apakah **penelepon misterius yang langsung menutup telepon** setelah Anda mengucap “halo” itu merekam suara Anda untuk digunakan melawan Anda? FCC sudah memperingatkan kita tentang penipuan semacam itu hampir satu dekade lalu, sebelum kecerdasan buatan muncul.
Kini—dengan AI yang bisa mengkloning suara dan nada bicara Anda hanya dari tiga detik audio—taruhannya jauh lebih tinggi.
Baik untuk tujuan sah maupun jahat, proposisi utama AI adalah kemampuannya dalam kecepatan dan skala. Di tangan aktor ancaman, kerusakan besar bisa terjadi dalam sekejap. Dan ini semakin parah. Satu-satunya respons berarti adalah menyamai kegigihan lawan. Dalam artikel ini, kita akan mengulas ancaman yang berkembang dan praktik terbaik untuk melindungi diri dan organisasi Anda.
Aktor Ancaman dengan Cepat Mengadaptasi AI ke TTP Mereka
Dalam laporan Januari 2025 tentang Penyalahgunaan Adversarial terhadap AI Generatif, Google Threat Intelligence Group (GTIG) melaporkan bahwa ketergantungan aktor ancaman pada Google Gemini masih sebatas untuk penggunaan produktivitas biasa.
“Alih-alih membuat perintah yang dirancang khusus, aktor ancaman menggunakan langkah-langkah dasar atau petunjuk jailbreak yang tersedia publik dalam upaya gagal untuk melewati pengendali keamanan Gemini,” tulis penulis laporan tersebut. “Mereka bereksperimen dengan Gemini untuk mendukung operasi mereka, menemukan peningkatan produktivitas tetapi belum mengembangkan kemampuan baru. Saat ini, mereka terutama menggunakan AI untuk riset, pemecahan masalah kode, serta pembuatan dan pelokalan konten.”
Dalam tulisan November 2025, GTIG mencatat kemajuan signifikan dalam taktik, teknik, dan prosedur (TTP) terkait AI yang digunakan aktor ancaman: “Musuh tidak lagi hanya memanfaatkan AI untuk produktivitas; mereka kini menggunakan malware berbasis AI yang baru dalam operasi aktif. Ini menandai fase operasional baru penyalahgunaan AI, melibatkan alat yang secara dinamis mengubah perilaku di tengah eksekusi.”
Tahun lalu, Anthropic menerbitkan laporan serupa tentang mendeteksi dan mencegah penggunaan jahat model bahasa Claude-nya. “Kasus penyalahgunaan paling baru yang terdeteksi adalah operasi ‘pengaruh-sebagai-layanan’ profesional yang menunjukkan evolusi dalam cara aktor tertentu memanfaatkan LLM untuk kampanye operasi pengaruh,” tulis penulis laporan. “Yang sangat baru adalah operasi ini menggunakan Claude bukan hanya untuk menghasilkan konten, tetapi juga untuk memutuskan kapan akun bot media sosial akan berkomentar, menyukai, atau membagikan ulang postingan dari pengguna media sosial asli.”
Menggemakan kekhawatiran Google tentang pengembangan malware berbantuan AI, laporan Anthropic menambahkan, “Kami juga mengamati kasus operasi credential stuffing, kampanye penipuan rekrutmen, dan aktor pemula yang menggunakan AI untuk meningkatkan kemampuan teknis mereka dalam menghasilkan malware melampaui tingkat keahlian mereka.”
Evolusi Deepfake yang Tak Terhentikan
Mungkin yang paling mengkhawatirkan saat ini adalah sifat video, gambar, dan audio deepfake yang semakin meyakinkan, serta peluang yang mereka ciptakan untuk kesalahan identitas. Namun, seperti yang ditunjukkan peluncuran Seedance 2.0 ByteDance pada Februari 2025—adegan Tom Cruise melawan Brad Pitt yang sangat meyakinkan yang dibuat dengan Seedance (dan reaksi cepat dari industri hiburan)—model generasi video terbaru membuat deepfake semakin sulit, jika bukan mustahil, untuk diidentifikasi.
Ini hanya butuh 2 baris perintah di seedance 2. Jika prediksi ‘Hollywood tamat’ benar, mungkin para penggembar teori itu juga perlu waspada, ya nggak tau deh. pic.twitter.com/dNTyLUIwAV
— Ruairi Robinson (@RuairiRobinson) 11 Februari 2026
Menurut Direktur Inovasi AI LastPass, Alex Cox, Seedance mewakili titik belok yang mengkhawatirkan dalam evolusi alat produksi video deepfake dan potensi penyalahgunaannya. “AI dapat menghasilkan konten yang hampir tak bisa dibedakan, atau bahkan sama sekali tak bisa dibedakan, dari aktivitas manusia nyata,” katanya kepada ZDNET. “Kita sudah sampai pada kemampuan AI multimodal di mana sebagian besar bentuk interaksi manusia daring dapat dipalsukan secara meyakinkan oleh AI. Interaksi tertulis masih yang paling kuat. Tapi video dan audio dengan cepat mendekati tingkat yang sama.”
Cox memprediksi alat video dan audio bertenaga AI akan berevolusi hingga kita bisa cukup mudah tertipu untuk percaya sedang berhadapan dengan orang asli—bahkan dalam rapat video—padahal itu deepfake. “[Lalu], tambahkan konsep avatar virtual dan terjemahan real-time. Bayangkan seorang penyerang meneliti figur publik umum di organisasi Anda dan membuat avatar virtual yang tidak hanya terlihat dan terdengar seperti figur itu, tetapi muncul dari tempat-tempat yang biasa mereka tampilkan dalam rekaman publik,” ujar Cox. “Bahasa dan indikator perilaku (kebiasaan, ucapan, dll.) yang mereka gunakan juga bisa dimodelkan, sehingga penyerang pada dasarnya bisa ‘menjadi mereka’ dalam sebuah rapat.”
Meski teknologi saat ini mungkin belum mampu menangani sifat real-time rapat, Cox yakin tak lama lagi mereka akan bisa. “Saat ini, teknologi AI belum bisa melakukan ini,” katanya. “Masih ada latensi dan artefak yang memberi perasaan ‘uncanny valley’. Tapi kita dengan cepat mendekati kesetaraan di area ini.”
Teks dan Gambar Diam: Sudah Kalah Duluan?
Sementara itu, untuk media statis seperti teks dan gambar diam, serta peluang untuk menyesatkan pengguna, kita sudah sampai di titik itu. Dua tahun lalu, Futurism.com melaporkan bagaimana Sports Illustrated dan TheStreet menerbitkan artikel oleh penulis palsu yang dihasilkan AI.
Insiden tersebut menyebabkan kerusakan reputasi bagi kedua merek media dan pada akhirnya berujung pada **pemecatan dua eksekutif puncak** di perusahaan induk merek tersebut.
Meskipun ini bukan kejahatan berbantuan AI yang dilakukan oleh penjahat siber, kasus ini menunjukkan meningkatnya frekuensi penipuan yang disengaja dan kemungkinan besar bahwa banyak identitas daring yang kita temui bisa saja tidak autentik, yang mendukung berbagai motif yang sangat dipertanyakan.
Setelah kita berhasil diumpan oleh gambar atau identitas deepfake, pertanyaannya adalah: Apa kerusakannya? Akankah klon suara menipu Anda untuk mengirim uang ke penipu? Akankah Anda menjadi korban phishing untuk kredensial akun paling sensitif Anda? Akankah salah satu perangkat Anda terjangkiti malware yang akhirnya menyusup ke sistem perusahaan Anda? Akankah **mekanisme pertahanan yang salah konfigurasi** memungkinkan agen AI berbahaya berkeliaran dengan bebas di balik firewall organisasi Anda?
## 6 cara untuk mempertahankan diri – mulai sekarang
Jangan menunggu serangan berbasis AI sebelum bertindak. Para ahli memperingatkan bahwa sudah waktunya bagi individu, profesional TI, dan organisasi untuk mengembangkan praktik terbaik dan kewaspadaan mereka guna mengurangi kemungkinan insiden katastrofik di tangan penjahat siber atau negara-negara berniat buruk yang dilengkapi AI. Berikut, tanpa urutan khusus, adalah enam cara untuk meningkatkan peluang Anda.
**1. Tetap terinformasi tentang ancaman yang berkembang**
Tetap terdidik secara fanatik tentang keselamatan dan keamanan AI, serta sadar akan ancaman yang berkembang. Kenali risikonya dan lanskap ancaman yang terus berubah. Perhatikan baik-baik sumber informasi paling penting, seperti kelompok intelijen ancaman dan keselamatan AI di pengembang AI terdepan seperti **Anthropic, Google DeepMind, dan OpenAI**. Siapkan umpan Anda untuk menyadari informasi baru segera setelah tersedia dari berbagai sumber keamanan siber dan intelijen ancaman terpercaya, termasuk **GTIG, AppOmni, Badan Keamanan Siber dan Infrastruktur AS (CISA), OWASP LLM Top Ten, Basis Data Insiden AI**, dan teknik terkait AI yang muncul sebagaimana terlihat dalam **Mitre ATT&CK Matrix**, seperti **perolehan kemampuan AI oleh musuh** (serta teknik yang tidak terkait AI).
**2. Beralih ke kredensial yang tidak bisa di-phish**
Bersikaplah seagresif mungkin dalam beralih ke kredensial tanpa kata sandi yang tidak bisa di-phish, termasuk **passkey dan autentikasi multifaktor berbasis pencocokan angka**. Mayoritas serangan yang berhasil dimulai dengan beberapa bentuk phishing atau vishing (setara berbasis suara dari phishing). Dengan bantuan AI dan kloning suara, serangan phishing dan vishing akan menjadi lebih meyakinkan. Semakin cepat Anda dan perusahaan Anda beralih ke kredensial yang tidak bisa di-phish, semakin baik. Misalnya, jangan menunggu untuk memilih kredensial yang tidak bisa di-phish untuk layanan daring yang mendukungnya. Dalam hal manajemen identitas dan kredensial organisasi Anda, desak agar menghapus kredensial yang dapat di-phish sesegera mungkin. Kata sandi mudah di-phish (atau di-vish). Kata sandi satu kali (OTP) yang dikirim via email, SMS, atau dihasilkan oleh aplikasi autentikasi Anda juga bermasalah.
**3. Identifikasi semua agen Anda**
Sebelum beralih ke AI agenik, pastikan Anda memiliki cara untuk mengidentifikasi setiap agen sah di bawah kendali Anda atau dalam infrastruktur organisasi Anda. Vendor seperti **Microsoft, Okta, dan Ping Identity** menawarkan solusi manajemen identitas dan akses (IAM) yang mengelola identitas agen di jaringan Anda, mirip seperti Anda mengelola identitas manusia. Meskipun AI agenik kemungkinan akan menghasilkan peningkatan produktivitas yang besar, agen sah adalah lingkungan yang kaya target bagi agen berbahaya (dan tidak diragukan lagi bahwa pelaku ancaman akan mengandalkan “agen bayangan” semacam itu untuk melakukan perintah mereka). Jika salah satu agen sah Anda disusupi, waktu akan menjadi sangat berharga untuk melacak dan mencabut aksesnya. Tetapi jika agen-agen itu berkeliaran tanpa manajemen sama sekali, semoga beruntung menahan kerusakan dari serangan agenik.
**4. Terapkan zero trust**
Terapkan strategi zero trust di mana pun memungkinkan. Ya, orang, organisasi (mis., mitra), proses, dan bahkan agen AI tertentu akan membutuhkan akses ke berbagai sumber daya dan sistem untuk menjalankan tanggung jawabnya. Tetapi selalu mulai mereka dengan beberapa atau bahkan tanpa hak istimewa untuk melihat apa yang rusak. Dunia luar adalah hutan belantara. Bahaya mengintai di bawah setiap batu dan di balik setiap pohon. Sedikit gesekan dapat membantu. Tingkatkan hak istimewa seminimal mungkin di mana gesekan itu menghadirkan hambatan serius bagi bisnis. Kepercayaan harus diraih. Bukan default.
**5. Kenali token OAuth Anda**
Jadilah lebih cerdas tentang paparan token OAuth Anda: Anda mungkin tidak menyadarinya, tetapi Anda kemungkinan telah menerbitkan satu atau lebih token OAuth yang memungkinkan satu layanan mengakses layanan lain atas nama Anda. Contohnya, jika akun Spotify Anda diatur untuk secara otomatis memposting ke Instagram tentang lagu yang Anda dengarkan, Anda pada dasarnya telah memerintahkan Instagram untuk memberikan token OAuth kepada Spotify. Pendelegasian wewenang semacam ini diperkirakan akan berkembang pesat begitu AI agenik lepas landas, dan semua agen itu akan membutuhkan akses ke berbagai layanan. Tetapi pertanyaannya: Apakah Anda tahu semua token OAuth yang Anda terbitkan? Dan untuk yang Anda ketahui, apakah Anda tahu cara mencabutnya? Untuk waktu yang lama, kami memiliki kemewahan untuk tidak terlalu peduli dengan paparan potensial ini. Tetapi hari-hari itu kini secara resmi berakhir karena **token OAuth adalah salah satu kredensial yang paling diidamkan** yang dapat diperoleh pelaku ancaman.
**6. Tetap skeptis**
Jadilah seorang skeptis jika Anda belum. Karena semakin sulit membedakan konten sah dan deepfake, sekaranglah waktunya untuk menjadi kurang percaya pada segala yang Anda lihat atau dengar secara daring. Baru pekan lalu, dalam beberapa jam setelah mantan Menlu AS Hillary Clinton bersaksi bahwa ia tidak pernah bertemu Jeffrey Epstein, **foto deepfake yang menggambarkannya berada di hadapan Epstein** menjadi viral di media sosial dalam upaya mendiskreditkan kesaksiannya. WhataWin/iStock/Getty Images Plus
Seiring berkembangnya alat-alat pembuatan *deepfake* visual dan audio, para pelaku ancaman akan mulai bergantung pada mereka dengan cara-cara yang tak terduga. Misalnya, dalam serangan yang sangat tertarget, Anda mungkin mendapat video atau pesan suara dari atasan atau CEO yang meminta tindakan yang biasanya tak akan Anda lakukan. Lebih baik berhati-hati dan selalu periksa ulang keaslian pesan semacam itu.
**Kenali Lawan Anda**
Saat mempertimbangkan cara-cara untuk meningkatkan *”sec-op”* atau keamanan operasional Anda, coba tempatkan diri Anda di posisi lawan, mengingat kemampuan AI kini dan di masa depan dekat. Jika Anda adalah lawan tersebut, Anda mungkin akan memanfaatkan setiap opsi AI yang tersedia untuk mencapai tujuan. Dan semakin baik AI dalam membantu tujuan jahat itu, korban akan tampak semakin tak berdaya. Ibarat membawa senjata api ke perkelahian pisau. Jika Anda tahu hal itu sebelumnya—dan kini Anda tahu—akankah Anda serahkan hasilnya pada kebetulan, atau akan hadapi tantangan itu? Apakah Anda punya pilihan lain?
Juga: [Mengapa cadangan terenkripsi mungkin gagal di era ransomware digerakkan AI](https://www.zdnet.com/article/encrypted-backups-fail-ai-driven-ransomware/)
Oh, terkait penelepon misterius [yang menunggu Anda berkata “ya”](https://www.experian.com/blogs/ask-experian/what-is-say-yes-scam/) atau “halo” lalu menutup telepon, mungkin Anda perlu pertimbangkan untuk tidak menjawab panggilan dari nomor tak dikenal (atau setidaknya, tunggu si penelepon bicara dulu). Memang pahit rasanya (dan diakui, tak praktis dalam situasi tertentu). Tapi sekali lagi, peganglah prinsip *zero trust*. Jika panggilan itu benar-benar penting (dan sah), mereka akan temukan cara untuk menghubungi Anda.