Nyata atau AI? Semakin Sulit Membedakan Video Buatan Kecerdasan Artifisial. Ini Cara Mudah Mengenalnya

Kita semua pernah dinasehati untuk tidak mempercayai segala sesuatu yang kita lihat di internet, dan hal tersebut tak pernah lebih benar daripada di era kecerdasan buatan generatif ini.

Video buatan AI ada di mana-mana, mulai dari deepfake para selebriti dan siaran bencana palsu hingga video viral kelinci yang sedang melompat di trampolin. Sora, generator video AI dari perusahaan induk ChatGPT, OpenAI, justru membuat kita semakin sulit membedakan mana yang nyata dan mana yang fiksi. Dan model Sora 2, sebuah aplikasi media sosial baru, menjadi semakin canggih dari hari ke hari.

Dalam beberapa bulan terakhir, aplikasi yang mirip TikTok ini menjadi viral, dengan para penggemar AI yang bertekad untuk mencari kode undangan. Tetapi Sora tidak seperti platform media sosial lainnya. Semua yang Anda lihat di Sora adalah palsu, dan semua videonya dihasilkan oleh AI. Saya menggambarkannya sebagai mimpi demam deepfake AI, yang sepintas lalu tampak tidak berbahaya, namun menyimpan risiko berbahaya di balik permukaannya.


Jangan lewatkan konten teknologi yang tidak bias dan ulasan berbasis lab kami. Jadikan CNET sebagai sumber pilihan Anda di Google.


Dari sudut pandang teknis, video Sora cukup mengesankan jika dibandingkan dengan pesaingnya seperti Midjourney’s V1 dan Google’s Veo 3. Video-video tersebut memiliki resolusi tinggi, audio yang tersinkronisasi, dan kreativitas yang mengejutkan. Fitur Sora yang paling populer, dijuluki “cameo,” memungkinkan Anda menggunakan kemiripan orang lain dan memasukkannya ke hampir semua adegan yang dihasilkan AI. Ini adalah alat yang mengesankan, yang menghasilkan video yang sangat realistis sampai-sampai menakutkan.

Itulah mengapa banyak ahli merasa khawatir dengan Sora. Aplikasi ini memudahkan siapa saja untuk membuat deepfake yang berbahaya, menyebarkan misinformasi, dan mengaburkan batas antara yang nyata dan yang tidak. Tokoh publik dan selebriti sangat rentan terhadap deepfake ini, dan serikat pekerja seperti SAG-AFTRA telah mendorong OpenAI untuk memperkuat pagar pengamannya.

Mengidentifikasi konten AI merupakan tantangan berkelanjutan bagi perusahaan teknologi, platform media sosial, dan semua orang. Tapi situasinya tidak sepenuhnya suram. Berikut adalah beberapa hal yang perlu diperhatikan untuk menentukan apakah sebuah video dibuat menggunakan Sora.

MEMBACA  Sejarah Panggilan Jadi Lebih Mudah: Fitur Bilah Pencarian di iOS 18 Dijelaskan

Cari Tanda Air Sora

Setiap video yang dibuat di aplikasi Sora untuk iOS menyertakan tanda air saat Anda mengunduhnya. Itu adalah logo Sora berwarna putih — ikon awan — yang memantul di pinggiran video. Caranya mirip dengan cara video TikTok diberi tanda air.

Pemberian tanda air pada konten adalah salah satu cara terbesar perusahaan AI untuk secara visual membantu kita mengenali konten yang dihasilkan AI. Model “nano banana” milik Google Gemini, misalnya, secara otomatis memberikan tanda air pada gambarnya. Tanda air sangat bagus karena berfungsi sebagai tanda yang jelas bahwa konten tersebut dibuat dengan bantuan AI.

Tapi tanda air tidaklah sempurna. Pertama, jika tanda airnya statis (tidak bergerak), tanda air itu dapat dengan mudah dipotong. Bahkan untuk tanda air yang bergerak seperti milik Sora, ada aplikasi yang dirancang khusus untuk menghilangkannya, sehingga tanda air saja tidak dapat sepenuhnya dipercaya. Ketika CEO OpenAI Sam Altman ditanya tentang hal ini, ia mengatakan bahwa masyarakat harus beradaptasi dengan dunia di mana siapa pun dapat membuat video palsu tentang siapa pun. Tentu saja, sebelum Sora dari OpenAI, belum ada cara yang populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video-video tersebut. Namun argumennya menegaskan poin valid tentang perlunya mengandalkan metode lain untuk memverifikasi keaslian.

Periksa Metadata-nya

Saya tahu, Anda mungkin berpikir bahwa mustahil Anda akan memeriksa metadata sebuah video untuk menentukan apakah itu nyata. Saya paham maksud Anda; ini adalah langkah tambahan, dan Anda mungkin tidak tahu harus mulai dari mana. Tapi ini adalah cara yang bagus untuk menentukan apakah sebuah video dibuat dengan Sora, dan ini lebih mudah dilakukan daripada yang Anda bayangkan.

Metadata adalah kumpulan informasi yang secara otomatis terlampir pada sebuah konten ketika konten itu dibuat. Metadata memberi Anda wawasan lebih dalam tentang bagaimana sebuah gambar atau video dibuat. Metadata dapat mencakup jenis kamera yang digunakan untuk mengambil foto, lokasi, tanggal dan waktu sebuah video direkam, serta nama file. Setiap foto dan video memiliki metadata, terlepas dari apakah itu dibuat oleh manusia atau AI. Dan banyak konten buatan AI akan memiliki kredensial konten yang menunjukkan asal-usul AI-nya juga.

MEMBACA  Hadiah yang Dipersonalisasi untuk Menunjukkan Cinta Anda pada Ayah di Hari Ayah tahun 2025

OpenAI adalah bagian dari Coalition for Content Provenance and Authenticity, yang bagi Anda berarti bahwa video Sora menyertakan metadata C2PA. Anda dapat menggunakan alat verifikasi Content Authenticity Initiative untuk memeriksa metadata video, gambar, atau dokumen. Begini caranya. (Content Authenticity Initiative adalah bagian dari C2PA.)

Cara memeriksa metadata foto, video, atau dokumen:

1. Arahkan ke URL ini: https://verify.contentauthenticity.org/

2. Unggah file yang ingin Anda periksa.

3. Klik Buka.

4. Periksa informasi di panel sisi kanan. Jika konten itu dihasilkan AI, informasi tersebut seharusnya termasuk dalam bagian ringkasan konten.

Ketika Anda menjalankan video Sora melalui alat ini, alat akan menyatakan bahwa video tersebut “diterbitkan oleh OpenAI,” dan akan menyertakan fakta bahwa video itu dihasilkan AI. Semua video Sora harus mengandung kredensial ini yang memungkinkan Anda mengonfirmasi bahwa video itu dibuat dengan Sora.

Alat ini, seperti semua pendeteksi AI, tidaklah sempurna. Ada banyak cara video AI dapat menghindari deteksi. Jika Anda memiliki video lain yang bukan dari Sora, video tersebut mungkin tidak mengandung sinyal yang diperlukan dalam metadata bagi alat untuk menentukan apakah video itu dibuat AI atau tidak. Video AI yang dibuat dengan Midjourney, misalnya, tidak terdeteksi, seperti yang saya konfirmasi dalam pengujian saya. Bahkan jika video itu dibuat oleh Sora, tetapi kemudian dijalankan melalui aplikasi pihak ketiga (seperti aplikasi penghapus tanda air) dan diunduh ulang, hal itu membuat alat ini kecil kemungkinannya untuk menandainya sebagai AI.

Alat verifikasi Content Authenticity Initiative dengan benar menandai bahwa video yang saya buat dengan Sora adalah hasil AI, bersama dengan tanggal dan waktu saya membuatnya.

Cari Tanda Label AI Lainnya dan Sertakan Label Anda Sendiri

Jika Anda berada di salah satu platform media sosial Meta, seperti Instagram atau Facebook, Anda mungkin mendapat sedikit bantuan dalam menentukan apakah sesuatu itu AI. Meta memiliki sistem internal untuk membantu menandai konten AI dan melabelinya sebagai demikian. Sistem ini tidak sempurna, tetapi Anda dapat dengan jelas melihat label untuk postingan yang telah ditandai. TikTok dan YouTube memiliki kebijakan serupa untuk melabeli konten AI.

MEMBACA  Penawaran Sennheiser terbaik: Hemat $130 untuk Momentum Sport Earbuds

Satu-satunya cara yang benar-benar dapat diandalkan untuk mengetahui apakah sesuatu dihasilkan oleh AI adalah jika pembuatnya mengungkapkannya. Banyak platform media sosial kini menawarkan pengaturan yang memungkinkan pengguna memberi label pada postingan mereka sebagai hasil AI. Bahkan sebuah kredit atau pernyataan sederhana dalam keterangan Anda dapat sangat membantu semua orang memahami bagaimana sesuatu dibuat.

Anda tahu saat Anda sedang men-scroll Sora bahwa tidak ada yang nyata. Tetapi begitu Anda meninggalkan aplikasi dan membagikan video buatan AI, itu adalah tanggung jawab kolektif kita untuk mengungkapkan bagaimana sebuah video dibuat. Seiring model AI seperti Sora terus mengaburkan batas antara kenyataan dan AI, terserah kita semua untuk membuatnya sejelas mungkin ketika sesuatu itu nyata atau AI.

Yang Paling Penting, Tetap Waspada

Tidak ada satu metode yang benar-benar sempurna untuk mengetahui dengan tepat dari sekali lihat apakah sebuah video itu nyata atau AI. Hal terbaik yang dapat Anda lakukan untuk mencegah diri Anda tertipu adalah dengan tidak secara otomatis dan tanpa pertanyaan mempercayai segala sesuatu yang Anda lihat secara online. Ikuti naluri Anda — jika sesuatu terasa tidak nyata, kemungkinan besar memang begitu. Di masa-masa yang belum pernah terjadi sebelumnya dan dipenuhi ‘sampah’ AI ini, pertahanan terbaik Anda adalah dengan mengamati lebih seksama video yang Anda tonton. Jangan hanya sekilas melihat dan langsung menggulir tanpa berpikir. Periksa teks yang kacau, objek yang menghilang, dan gerakan yang menentang hukum fisika. Dan jangan menyalahkan diri sendiri jika Anda terkadang tertipu; bahkan para ahli pun bisa salah.

(Keterangan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, dengan tuduhan melanggar hak cipta Ziff Davis dalam melatih dan mengoperasikan sistem AI-nya.)