Cara Membedakan Video Asli dan Hasil Kecerdasan Buatan

Ingatkah saat konten ‘palsu’ di internet cuma berarti foto yang di-Photoshop dengan buruk? Ah, masa-masa yang lebih sederhana. Kini, kita semua berenang di lautan video hasil AI dan deepfake, mulai dari video selebriti bodong hingga siaran bencana yang keliru, dan semakin mustahil untuk membedakan mana yang nyata.

Dan situasinya akan makin runyam. Sora, alat pembuat video AI dari OpenAI, sudah mengacaukan keadaan. Namun kini ‘aplikasi media sosial’ barunya yang viral, Sora 2, menjadi hal paling diminati di internet. Inilah intinya: aplikasi ini bersifat undangan saja, berupa feed ala TikTok tempat semuanya 100% palsu.

Penulisnya sudah menyebutnya “mimpi demam deepfake,” dan itulah kenyataannya. Ini adalah platform yang semakin mahir dari hari ke hari dalam menampilkan fiksi seolah fakta, dan risikonya sangat besar. Jika Anda kesulitan membedakan yang nyata dari AI, Anda tidak sendirian.

Berikut beberapa kiat berguna yang dapat membantu Anda menyingkirkan kebisingan untuk menemukan kebenaran di balik setiap situasi yang terinspirasi AI.


Jangan lewatkan konten teknologi imparsial dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber pilihan di Google.


Dari sudut pandang teknis, video Sora cukup mengesankan dibandingkan pesaing seperti V1 milik Midjourney dan Google Veo 3. Resolusinya tinggi, audio tersinkronisasi, dan kreativitasnya mengejutkan. Fitur Sora paling populer, dijuluki “cameo,” memungkinkan Anda menggunakan kemiripan orang lain dan memasukkannya ke hampir semua adegan hasil AI. Ini alat yang impresif, menghasilkan video yang sangat realistis.

Itulah mengapa banyak pakar merasa khawatir dengan Sora. Aplikasi ini memudahkan siapa saja untuk menciptakan deepfake berbahaya, menyebarkan misinformasi, dan mengaburkan batas antara yang nyata dan tidak. Tokoh publik dan selebriti sangat rentan terhadap deepfake ini, dan serikat pekerja seperti SAG-AFTRA telah mendesak OpenAI untuk memperkuat pengawasannya.

Mengidentifikasi konten AI merupakan tantangan berkelanjutan bagi perusahaan teknologi, platform media sosial, dan semua orang. Namun situasinya tidak sepenuhnya suram. Berikut beberapa hal yang perlu diperhatikan untuk menentukan apakah sebuah video dibuat menggunakan Sora.

MEMBACA  12 Bantal Pendingin Terbaik tahun 2024

Cari Tanda Air Sora

Setiap video yang dibuat di aplikasi iOS Sora menyertakan tanda air saat diunduh. Logo Sora berwarna putih — ikon awan — yang memantul di pinggiran video. Caranya mirip dengan video TikTok yang diberi tanda air.

Pemberian tanda air pada konten adalah salah satu cara terbesar perusahaan AI untuk membantu kita mengenali konten buatan AI secara visual. Model “nano banana” milik Gemini Google, misalnya, secara otomatis memberi tanda air pada gambarnya. Tanda air sangat bagus karena menjadi penanda jelas bahwa konten tersebut dibuat dengan bantuan AI.

Tapi tanda air tidak sempurna. Pertama, jika tanda airnya statis (tidak bergerak), mudah dipotong. Bahkan untuk tanda air bergerak seperti Sora, ada aplikasi yang dirancang khusus untuk menghilangkannya, jadi tanda air saja tidak bisa sepenuhnya dipercaya. Saat CEO OpenAI Sam Altman ditanya tentang ini, dia berkata masyarakat harus beradaptasi dengan dunia di mana siapa pun dapat membuat video palsu siapa pun. Tentu, sebelum Sora OpenAI, belum ada cara yang populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video tersebut. Namun argumennya menyoroti poin valid tentang perlunya metode lain untuk memverifikasi keaslian.

Periksa Metadata

Saya tahu, Anda mungkin berpikir tidak mungkin memeriksa metadata video untuk menentukan keasliannya. Saya paham; ini langkah tambahan, dan Anda mungkin tidak tahu harus mulai dari mana. Tapi ini cara yang bagus untuk menentukan apakah video dibuat dengan Sora, dan lebih mudah dari yang Anda kira.

Metadata adalah kumpulan informasi yang secara otomatis terlampir pada sebuah konten saat dibuat. Ini memberi Anda wawasan lebih tentang bagaimana gambar atau video diciptakan. Dapat termasuk jenis kamera yang digunakan untuk mengambil foto, lokasi, tanggal dan waktu video direkam, serta nama file. Setiap foto dan video memiliki metadata, terlepas dari apakah dibuat oleh manusia atau AI. Dan banyak konten buatan AI akan memiliki kredensial konten yang menunjukkan asal-usul AI-nya juga.

MEMBACA  Pertandingan Sepak Bola Liga Europa: Siaran Langsung FCSB vs. Man United Dari Mana Saja

OpenAI adalah bagian dari Coalition for Content Provenance and Authenticity, yang bagi Anda berarti video Sora menyertakan metadata C2PA. Anda dapat menggunakan alat verifikasi Inisiatif Keaslian Konten untuk memeriksa metadata video, gambar, atau dokumen. Begini caranya. (Inisiatif Keaslian Konten adalah bagian dari C2PA.)

Cara memeriksa metadata foto, video, atau dokumen:

1. Arahkan ke URL ini: https://verify.contentauthenticity.org/

2. Unggah file yang ingin Anda periksa.

3. Klik Buka.

4. Periksa informasi di panel sisi kanan. Jika itu buatan AI, seharusnya tercantum di bagian ringkasan konten.

Saat Anda menjalankan video Sora melalui alat ini, akan tertulis bahwa video “diterbitkan oleh OpenAI,” dan akan menyertakan fakta bahwa itu dibuat oleh AI. Semua video Sora harus mengandung kredensial ini yang memungkinkan Anda mengonfirmasi bahwa video itu dibuat dengan Sora.

Alat ini, seperti semua pendeteksi AI, tidak sempurna. Ada banyak cara video AI dapat menghindari deteksi. Jika Anda memiliki video non-Sora lainnya, mereka mungkin tidak mengandung sinyal yang diperlukan dalam metadata bagi alat untuk menentukan apakah mereka dibuat AI atau tidak. Video AI yang dibuat dengan Midjourney, misalnya, tidak terdeteksi, seperti yang saya konfirmasi dalam pengujian. Bahkan jika video dibuat oleh Sora, tetapi kemudian dijalankan melalui aplikasi pihak ketiga (seperti penghapus tanda air) dan diunduh ulang, hal itu membuat alat kecil kemungkinannya untuk menandainya sebagai AI.

Alat verifikasi Inisiatif Keaslian Konten dengan benar menandai bahwa video yang saya buat dengan Sora adalah hasil AI, beserta tanggal dan waktu saya membuatnya.

Screenshot oleh Katelyn Chedraoui/CNET

Cari Label AI Lainnya dan Sertakan Milik Anda

Jika Anda berada di salah satu platform media sosial Meta, seperti Instagram atau Facebook, Anda mungkin mendapat sedikit bantuan menentukan apakah sesuatu itu AI. Meta memiliki sistem internal untuk membantu menandai konten AI dan melabelinya sebagai demikian. Sistem ini tidak sempurna, tetapi Anda dapat melihat dengan jelas label untuk pos yang telah ditandai. TikTok dan YouTube memiliki kebijakan serupa untuk melabeli konten AI.

MEMBACA  Ponsel Galaxy dan pelacak kebugaran Samsung yang akan datang mungkin adalah penawaran terbaik dalam teknologi

Satu-satunya cara yang benar-benar andal untuk mengetahui apakah sesuatu dibuat oleh AI adalah jika penciptanya mengungkapkannya. Banyak platform media sosial kini menawarkan pengaturan yang memungkinkan pengguna melabeli pos mereka sebagai buatan AI. Bahkan kredit atau pengungkapan sederhana dalam keterangan Anda dapat sangat membantu semua orang memahami bagaimana sesuatu diciptakan.

Anda tahu saat men-scroll Sora bahwa tidak ada yang nyata. Tapi sekali Anda meninggalkan aplikasi dan membagikan video buatan AI, itu adalah tanggung jawab kolektif kita untuk mengungkapkan bagaimana sebuah video dibuat. Saat model AI seperti Sora terus mengaburkan batas antara realitas dan AI, terserah kita semua untuk membuatnya sejelas mungkin ketika sesuatu itu nyata atau AI.

Yang Paling Penting, Tetap Waspada

Tidak ada satu metode yang benar-benar sempurna untuk mengetahui dengan tepat dari sekali lihat apakah sebuah video itu nyata atau AI. Hal terbaik yang dapat Anda lakukan untuk mencegah tertipu adalah tidak secara otomatis dan tanpa pertanyaan mempercayai segala sesuatu yang Anda lihat secara online. Ikuti naluri Anda — jika sesuatu terasa tidak nyata, kemungkinan besar memang begitu. Di masa yang belum pernah terjadi sebelumnya, dipenuhi konten AI asal-asalan ini, pertahanan terbaik Anda adalah memeriksa video yang Anda tonton lebih cermat. Jangan hanya sekilas melihat dan menggulir tanpa berpikir. Periksa teks yang kacau, objek yang menghilang, dan gerakan yang menentang fisika. Dan jangan menyalahkan diri sendiri jika terkadang tertipu; bahkan para ahli pun bisa salah.

(Keterangan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, menuduhnya melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)