Sudah berlalu masa-masa ketika ‘palsu’ di internet mudah dikenali, seringkali hanya foto hasil Photoshop yang buruk kualitasnya. Kini, kita berenang dalam lautan video buatan AI dan deepfake, mulai dari dukungan selebritas palsu hingga siaran bencana yang tidak benar. Teknologi terbaru telah menjadi sangat cerdas hingga mengaburkan batas antara kenyataan dan fiksi, membuat kita hampir tidak bisa membedakan mana yang nyata.
Dan situasinya semakin meningkat dengan cepat. Sora dari OpenAI sudah mengacaukan keadaan, tetapi kini ‘aplikasi media sosial’ viralnya, Sora 2, menjadi tiket terpanas — dan paling menipu — di internet. Ini adalah umpan bergaya TikTok di mana semuanya 100% palsu. Penulis ini menyebutnya sebagai “mimpi demam deepfake” dan dengan alasan yang kuat. Platform ini terus membaik dalam hal membuat fiksi terlihat realistis, dengan risiko nyata yang signifikan.
Jika Anda kesulitan membedakan yang nyata dari AI, Anda tidak sendirian. Berikut adalah beberapa tips berguna yang seharusnya membantu Anda menembus kebisingan untuk mendapatkan kebenaran dari setiap kreasi yang terinspirasi AI.
Jangan lewatkan konten teknologi yang tidak bias dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber Google pilihan.
Pandangan Ahli AI Saya tentang Video Sora
Dari sudut pandang teknis, video Sora sangat mengesankan dibandingkan dengan pesaing seperti Midjourney V1 dan Google Veo 3. Mereka memiliki resolusi tinggi, audio yang tersinkronisasi, dan kreativitas yang mengejutkan. Fitur paling populer Sora, dijuluki “cameo”, memungkinkan Anda menggunakan kemiripan orang lain dan memasukkannya ke hampir semua adegan yang dihasilkan AI. Ini adalah alat yang mengesankan, menghasilkan video yang realistis secara menakutkan.
Itulah mengapa begitu banyak ahli mengkhawatirkan Sora. Aplikasi ini mempermudah siapa pun untuk membuat deepfake berbahaya, menyebarkan misinformasi, dan mengaburkan batas antara apa yang nyata dan yang tidak. Figur publik dan selebritas sangat rentan terhadap deepfake ini, dan serikat pekerja seperti SAG-AFTRA telah mendesak OpenAI untuk memperkuat pengawasannya.
Mengidentifikasi konten AI adalah tantangan berkelanjutan bagi perusahaan teknologi, platform media sosial, dan semua orang. Namun, ini tidak sepenuhnya sia-sia. Berikut adalah beberapa hal yang harus diperhatikan untuk menentukan apakah sebuah video dibuat menggunakan Sora.
Cari Tanda Air Sora
Setiap video yang dibuat di aplikasi iOS Sora menyertakan tanda air saat Anda mengunduhnya. Itu adalah logo Sora putih — ikon awan — yang memantul di tepi video. Ini mirip dengan cara video TikTok diberi tanda air. Pemberian tanda air pada konten adalah salah satu cara terbesar perusahaan AI dapat membantu kita secara visual melihat konten yang dihasilkan AI. Model “pisang nano” Gemini Google secara otomatis memberi tanda air pada gambarnya. Tanda air sangat bagus karena berfungsi sebagai tanda jelas bahwa konten dibuat dengan bantuan AI.
Tetapi tanda air tidak sempurna. Pertama, jika tanda air statis (tidak bergerak), itu dapat dengan mudah dipotong. Bahkan untuk tanda air bergerak seperti milik Sora, ada aplikasi yang dirancang khusus untuk menghilangkannya, jadi tanda air saja tidak bisa sepenuhnya dipercaya. Ketika CEO OpenAI Sam Altman ditanya tentang ini, dia mengatakan masyarakat harus beradaptasi dengan dunia di mana siapa pun dapat membuat video palsu siapa pun. Tentu saja, sebelum Sora, tidak ada cara populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video itu. Namun argumennya menimbulkan poin yang valid tentang perlunya mengandalkan metode lain untuk memverifikasi keaslian.
Periksa Metadata
Saya tahu Anda mungkin berpikir bahwa tidak mungkin Anda akan memeriksa metadata video untuk menentukan apakah itu nyata. Saya memahami dari mana Anda berasal. Ini adalah langkah tambahan, dan Anda mungkin tidak tahu harus mulai dari mana. Tetapi ini adalah cara yang bagus untuk menentukan apakah video dibuat dengan Sora, dan lebih mudah dilakukan daripada yang Anda kira.
Metadata adalah kumpulan informasi yang secara otomatis terlampir pada sebuah konten saat dibuat. Ini memberi Anda wawasan lebih tentang bagaimana gambar atau video diciptakan. Ini dapat mencakup jenis kamera yang digunakan untuk mengambil foto, lokasi, tanggal dan waktu video direkam, dan nama file. Setiap foto dan video memiliki metadata, terlepas dari apakah itu dibuat oleh manusia atau AI. Dan banyak konten buatan AI akan memiliki kredensial konten yang menunjukkan asal-usul AI juga.
OpenAI adalah bagian dari Koalisi untuk Asal Usul dan Keaslian Konten, yang berarti video Sora menyertakan metadata C2PA. Anda dapat menggunakan alat verifikasi dari Inisiatif Keaslian Konten untuk memeriksa metadata video, gambar, atau dokumen. Begini caranya. (Inisiatif Keaslian Konten adalah bagian dari C2PA.)
Cara memeriksa metadata foto, video, atau dokumen
1. Arahkan ke URL ini: https://verify.contentauthenticity.org/
2. Unggah file yang ingin Anda periksa.
3. Klik Buka.
4. Periksa informasi di panel sisi kanan. Jika dihasilkan AI, itu harus menyertakannya di bagian ringkasan konten.
Ketika Anda menjalankan video Sora melalui alat ini, itu akan mengatakan video “diterbitkan oleh OpenAI”, dan akan menyertakan fakta bahwa itu dihasilkan AI. Semua video Sora harus mengandung kredensial ini yang memungkinkan Anda mengonfirmasi bahwa itu dibuat dengan Sora.
Alat ini, seperti semua pendeteksi AI, tidak sempurna. Ada banyak cara video AI dapat menghindari deteksi. Jika Anda memiliki video non-Sora, mereka mungkin tidak mengandung sinyal yang diperlukan dalam metadata bagi alat untuk menentukan apakah mereka dibuat AI atau tidak. Video AI yang dibuat dengan Midjourney, misalnya, tidak ditandai, seperti yang saya konfirmasi dalam pengujian saya. Bahkan jika video dibuat oleh Sora, tetapi kemudian dijalankan melalui aplikasi pihak ketiga (seperti penghapus tanda air) dan diunduh ulang, itu membuat alat kecil kemungkinannya untuk menandainya sebagai AI.
Alat verifikasi Inisiatif Keaslian Konten dengan benar menandai bahwa video yang saya buat dengan Sora dihasilkan AI, bersama dengan tanggal dan waktu saya membuatnya.
Screenshot oleh Katelyn Chedraoui/CNET
Cari Label AI Lainnya dan Sertakan Milik Anda
Jika Anda berada di salah satu platform media sosial dari Meta, seperti Instagram atau Facebook, Anda mungkin mendapat sedikit bantuan menentukan apakah sesuatu itu AI. Meta memiliki sistem internal untuk membantu menandai konten AI dan melabelinya sebagai demikian. Sistem ini tidak sempurna, tetapi Anda dapat dengan jelas melihat label untuk postingan yang telah ditandai. TikTok dan YouTube memiliki kebijakan serupa untuk melabeli konten AI.
Satu-satunya cara yang benar-benar dapat diandalkan untuk mengetahui apakah sesuatu dihasilkan AI adalah jika penciptanya mengungkapkannya. Banyak platform media sosial kini menawarkan pengaturan yang memungkinkan pengguna melabeli postingan mereka sebagai dihasilkan AI. Bahkan kredit sederhana atau pengungkapan dalam keterangan Anda dapat sangat membantu semua orang memahami bagaimana sesuatu diciptakan.
Anda tahu saat Anda menggulir Sora bahwa tidak ada yang nyata. Namun, setelah Anda meninggalkan aplikasi dan membagikan video yang dihasilkan AI, itu menjadi tanggung jawab bersama kita untuk mengungkapkan bagaimana sebuah video dibuat. Karena model AI seperti Sora terus mengaburkan batas antara realitas dan AI, terserah kita semua untuk membuatnya sejelas mungkin ketika sesuatu itu nyata atau AI.
Yang Paling Penting, Tetap Waspada
Tidak ada satu metode yang benar-benar terbukti untuk secara akurat mengetahui dari sekali lihat apakah video itu nyata atau AI. Hal terbaik yang dapat Anda lakukan untuk mencegah diri Anda tertipu adalah tidak secara otomatis, tanpa pertanyaan, mempercayai segala sesuatu yang Anda lihat secara online. Ikuti naluri Anda, dan jika sesuatu terasa tidak nyata, kemungkinan besar memang tidak. Di masa-masa yang belum pernah terjadi sebelumnya, dipenuhi ‘sampah’ AI ini, pertahanan terbaik Anda adalah memeriksa video yang Anda tonton lebih cermat. Jangan hanya sekilas melihat dan menggulir tanpa berpikir. Periksa teks yang kacau, objek yang menghilang, dan gerakan yang menentang hukum fisika. Dan jangan menyalahkan diri sendiri jika Anda terkadang tertipu. Bahkan para ahli pun bisa salah.
(Keterangan: Ziff Davis, perusahaan induk CNET, pada April mengajukan gugatan terhadap OpenAI, menuduh mereka melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)