Ada lebih banyak deepfakes politik daripada yang Anda kira, menurut pakar AI ini

TrueMedia mengevaluasi sebuah konten. TrueMedia.orgSeberapa umumnya deepfakes politik? Kebanyakan warga yang cukup terinformasi dapat mengingat insiden besar konten politik sintetis, seperti \”robocall\” yang dilakukan oleh Presiden Joe Biden pada bulan Januari kepada para pemilih di New Hampshire, yang ternyata merupakan suara yang disintesis oleh kecerdasan buatan. Meskipun tidak ada statistik yang otoritatif tentang deepfakes kecerdasan buatan (AI), seorang skeptis mungkin berpikir bahwa mereka tidak umum, mengingat bahwa hanya beberapa yang terkenal yang banyak dilaporkan. Namun, menurut seorang sarjana AI, lebih mungkin bahwa deepfakes AI semakin meningkat menjelang pemilihan presiden AS pada bulan November – kamu hanya tidak melihat banyak dari mereka.Juga: 80% orang berpikir deepfakes akan mempengaruhi pemilihan. Beginilah cara untuk mempersiapkan diri\”Saya akan mengambil taruhan seratus0 banding seratus untuk seribu dolar bahwa kita akan melihat serangkaian ini [deepfakes]\” menjelang November, \”karena sekarang jauh lebih mudah untuk membuatnya,\” kata Oren Etzioni, pendiri organisasi nirlaba TrueMedia, dalam sebuah wawancara dengan ZDNET bulan lalu.\”Saya tidak akan mendorongmu untuk menerima taruhan itu, karena saya memiliki informasi lebih banyak darimu,\” lanjutnya sambil tertawa. TrueMedia menjalankan server yang menyusun beberapa program klasifikasi berbasis AI semata-mata untuk memberi tahu apakah sebuah gambar adalah deepfake atau tidak. Organisasi ini didukung oleh yayasan amal pendiri Uber, Garrett Camp, Camp.org.Ketika seorang pengguna mengunggah sebuah gambar, TrueMedia akan menghasilkan label yang menyatakan \”tidak pasti,\” dalam gelembung kuning, \”sangat mencurigakan,\” dalam warna merah, atau sebuah gelembung hijau dengan \”asli\” jika model AI memiliki tingkat keyakinan bahwa itu bukan deepfake. Kamu dapat melihat demo dan mendaftar untuk akses beta ke program ini di sini.Etzioni, seorang profesor di University of Washington, juga merupakan kepala eksekutif pendiri Institut Allen untuk AI, yang telah melakukan pekerjaan yang ekstensif dalam mendeteksi materi yang dihasilkan oleh AI. \”Kami melihat uji coba, kami melihat balon uji coba, kami melihat orang mengatur\” untuk menghasilkan banyak deepfakes lebih banyak saat pemilihan mendekat nanti tahun ini, dan tidak hanya di AS, kata Etzioni. TrueMedia.orgEtzioni berpikir benar untuk mengatakan bahwa \”tidak ada jumlah yang besar\” deepfakes yang beredar secara publik saat ini. Namun, ia menambahkan bahwa banyak dari apa yang sebenarnya ada di luar sana mungkin tidak diperhatikan oleh masyarakat umum. \”Apakah kamu benar-benar tahu apa yang terjadi di Telegram?\” katanya, merujuk pada layanan pesan pribadi. Juga: Ketika agen AI menyebar, begitu juga risikonya, kata para sarjanaPendiri tersebut mengatakan TrueMedia melihat bukti bahwa para pembuat deepfake meningkatkan produksi untuk akhir tahun ini, saat musim pemilihan semakin intens. \”Kami melihat uji coba, kami melihat balon uji coba, kami melihat orang mengatur\” katanya – dan tidak hanya di AS. \”Ini adalah tahun yang penting, karena kita akan menghadapi serangkaian pemilihan, dan teknologi [deepfakes] telah menjadi begitu banyak,\” jelasnya. \”Bagi saya, ini hanya masalah kapan, bukan apakah, ada upaya untuk mengganggu pemilihan, baik di tingkat nasional maupun di sebuah tempat pemungutan suara.\”Untuk mempersiapkan diri, TrueMedia telah membangun jaringan kemampuan dan infrastruktur. Organisasi ini menjalankan algoritma mereka sendiri pada deepfakes potensial sambil membayar startup yang bekerja sama seperti Reality Defender dan Sensity untuk menjalankan algoritma mereka secara paralel, untuk menggabungkan usaha dan memeriksa temuan. \”Ini benar-benar memerlukan upaya dari bawah untuk melawan tsunami disinformasi yang kita lihat awalannya,\” kata Etzioni. \”Tidak ada solusi instan, yang berarti tidak ada vendor atau model tunggal yang mendapatkan semuanya.\”Juga: Apa itu Kredensial Konten?Untuk memulai, TrueMedia menyesuaikan berbagai model open-source. \”Kami menjalankan klasifikasi yang mengatakan ya atau tidak\” untuk setiap deepfake potensial, kata Etzioni. Ketika dijalankan secara ensemble, klasifikasi dapat menggabungkan jawaban dari setiap model – dan tim melihat tingkat akurasi di atas 90%.\”Beberapa klasifikasi ini memiliki model generatif yang tertanam di dalamnya, tetapi bukan berarti kami hanya menjalankan Transformers,\” lanjut Etzioni, merujuk pada model \”perhatian\” AI yang mendominasi yang memberikan jalan untuk beberapa lainnya, termasuk GPT-4, Gemini milik Google, Claude milik Anthropic, dan Llama milik Meta. TrueMedia saat ini tidak menawarkan kode sumber untuk model, juga tidak menerbitkan detail teknis atau mengungkapkan set data pelatihan. \”Kami berhati-hati tentang sumber dan metode, setidaknya saat ini,\” kata Etzioni. \”Kami adalah organisasi nirlaba, jadi kami tidak berusaha menciptakan sesuatu yang properti – satu-satunya hal adalah kita berada dalam posisi yang tidak biasa karena kita berada di medan pertempuran.\”Etzioni berharap pengungkapan lebih lanjut dapat terjadi seiring waktu. \”Kita hanya perlu mencari tahu struktur yang tepat,\” katanya.Juga: Model AI VLOGGER Google dapat menghasilkan avatar video dari gambar – apa yang bisa salah?Untuk mendukung menjalankan semua model ini, TrueMedia telah mendapatkan bantuan dari startup OctoAI, yang didirikan oleh teman dan kolega Etzioni di University of Washington, Luis Ceze. OctoAI, yang mulai bergerak meningkatkan kinerja AI di berbagai chip dan sistem komputer, menjalankan layanan cloud untuk menyempurnakan pekerjaan pelatihan model dan memberikan prediksi. Pengembang yang ingin menjalankan LLMs dan sejenisnya dapat mengunggah model mereka ke layanan ini, dan OctoAI akan menangani sisanya.Kebutuhan inferensi TrueMedia \”cukup kompleks, dalam artian bahwa kami mengakses API vendor, tetapi juga menjalankan banyak model kami sendiri, menyesuaikannya,\” kata Etzioni. \”Dan kami harus banyak memikirkan tentang keamanan karena ini adalah tempat di mana kamu bisa ditargetkan oleh serangan penolakan layanan.\”Juga: Melayani AI generatif jadi lebih mudah dengan OctoAI\”Saat kita mendekati pemilihan, kami berharap volume akan cukup tinggi\” untuk melakukan kueri terhadap model TrueMedia, kata pendiri OctoAI Luis Ceze. \”Kami ingin orang tidak harus menunggu terlalu lama atau mungkin kehilangan kesabaran.\”TrueMedia dan mitra-mitranya mengharapkan gelombang kenaikan kueri deepfake. \”Terutama saat kita mendekati pemilihan, kami berharap volume akan cukup tinggi\” untuk melakukan kueri terhadap model, kata Ceze dalam wawancara dengan ZDNET. Kenaikan yang akan datang berarti kecepatan dan skala menjadi perhatian. \”Kita, sebagai masyarakat pada umumnya, ingin orang menggunakan itu, dan ingin media menggunakan itu dan memvalidasi gambarnya,\” tambah Ceze. \”Kita ingin orang tidak harus menunggu terlalu lama atau mungkin kehilangan kesabaran.\”\”Hal terakhir yang kita inginkan adalah hancur karena serangan penolakan layanan, atau hancur karena kita tidak menyiapkan penskalaan otomatis dengan benar,\” kata Etzioni. Menurutnya, TrueMedia sudah memiliki ribuan pengguna. Dia memperkirakan bahwa, seiring tahun berjalan, \”kita akan memiliki beberapa organisasi media terkemuka di seluruh dunia menggunakan alat kami, dan kita akan dengan mudah memiliki puluhan ribu pengguna.\”Jadi bagaimana TrueMedia akan tahu apakah mereka berdampak? \”Apakah kita akan mencegah pemilihan terpengaruh?\” tanya Etzioni. \”Kamu tahu, kamu bisa menggunakan kata-kata mewah seperti \’melindungi integritas proses pemilihan\’; itu terlalu megah untuk saya. Saya hanya ingin alat itu tersedia.\”Juga: Semua mata tertuju pada pertahanan siber saat pemilihan masuk ke era AI generatifBagi Etzioni, tujuannya adalah untuk menciptakan transparansi – dan percakapan – seputar deepfakes. Label konten TrueMedia bersifat publik, sehingga pemirsa dapat berbagi, membandingkan, dan mempersengketakan temuan mereka. Cek tambahan itu penting: meskipun dengan tingkat akurasi lebih dari 90%, Etzioni mengakui bahwa ensemble TrueMedia belum sempurna. \”Cara ChatGPT tidak bisa menghindari halusinasi, kami juga tidak bisa menghindari membuat kesalahan,\” katanya. Skeptis akan mempertanyakan pengaruh yang dimiliki oleh lembaga nirlaba tanpa kode sumber yang diungkapkan, yang set data pelatihannya tidak terbuka untuk pemeriksaan publik. Mengapa seseorang harus percaya label yang dihasilkan oleh TrueMedia? \”Saya pikir itu pertanyaan yang adil,\” kata Etzioni. \”Kami baru berusia enam minggu, kami memiliki lebih banyak pengungkapan untuk dilakukan.\” Meskipun demikian, Etzioni menekankan pendekatan terbuka TrueMedia, dibandingkan dengan pilihan lainnya. \”Kami adalah buku terbuka dalam hal hasil, berbeda dengan banyak alat lain di luar sana yang tersedia di bawah kap mesin atau untuk dijual,\” katanya. TrueMedia berencana untuk menerbitkan analisis tentang keadaan saat ini dari deepfakes dalam beberapa minggu mendatang. \”Kami membuat orang berpikir lebih kritis tentang apa yang mereka lihat dalam media,\” katanya.

MEMBACA  Wisatawan menyebut ini adalah bandara terbaik dan terburuk di Amerika Serikat tahun 2024