TikTok bakal mulai bekerja dengan sistem watermark digital yang disebut sebagai Content Credentials untuk membantu mengidentifikasi lebih banyak foto, video, dan konten audio yang dibuat menggunakan alat kecerdasan buatan dari perusahaan seperti Microsoft, Adobe, dan OpenAI. Perusahaan social networking Tiongkok tersebut, yang sedang melawan potensi larangan di AS atas kekhawatiran keamanan nasional, sudah menandai konten yang dihasilkan oleh AI menggunakan alat efek AI TikTok. Perusahaan itu mengatakan langkah-langkah baru mereka akan menjadi bagian dari upaya yang berkembang untuk melawan disinformasi dan misinformation. “AI memungkinkan peluang kreatif yang luar biasa, tetapi dapat membingungkan atau menyesatkan pemirsa jika mereka tidak tahu konten tersebut dihasilkan oleh AI,” kata TikTok dalam sebuah pernyataan. “Labeling membantu memperjelas konteks tersebut.” Baca lebih lanjut: Seberapa Dekat Foto Itu dengan Kebenaran? Apa yang Harus Diketahui di Era AI. Langkah-langkah TikTok menandai cara lain industri teknologi merespons kekhawatiran yang semakin berkembang tentang meluasnya konten yang dihasilkan oleh AI. Dalam beberapa tahun terakhir, teknologi AI yang menciptakan teks, video, dan audio telah menjadi jauh lebih mudah digunakan. (Periksa ulasan langsung CNET tentang alat pembuat gambar AI seperti Google’s ImageFX, Adobe Firefly, dan Dall-E 3 OpenAI serta tips AI, penjelas, dan berita lebih lanjut di halaman sumber daya AI Atlas kami.) Pada saat yang sama, konten AI juga menjadi jauh lebih dipercaya. Para ahli media dan informasi telah memperingatkan bahwa tren yang konvergen ini bisa menciptakan risiko signifikan bagi publik, dengan kebohongan realistis dan misinformation membanjiri internet. Kekhawatiran itu bukan hanya teoritis. Awal tahun ini, seorang konsultan politik membuat panggilan massal dengan menggunakan rekayasa suara AI untuk merekam kembali suara Presiden AS Joe Biden. Dalam kasus itu, rekaman AI yang terdengar sangat nyata itu mendorong orang-orang di New Hampshire untuk tidak memberikan suara dalam pemilihan primer. Para ahli percaya ini baru awal dari kemana disinformasi AI kemungkinan akan menuju, terutama dengan pemilihan presiden 2024 yang akan datang. TikTok bukan satu-satunya perusahaan media sosial yang bekerja untuk mengidentifikasi pos-pos yang didukung oleh AI. Bulan lalu, pemilik Facebook dan Instagram, Meta, mengumumkan rencana untuk menandai video, audio, dan gambar sebagai “Dibuat dengan AI” baik ketika sistem mereka mendeteksi keterlibatan AI, tanpa memandang apakah pencipta mengungkapkan informasi tersebut selama pengunggahan. YouTube milik Google juga telah mensyaratkan pengungkapan video yang dimanipulasi oleh AI dari para pencipta, dengan mengutip contoh termasuk kedekatan “realistis” orang atau adegan, serta rekaman yang diubah dari peristiwa atau tempat nyata. OpenAI juga mengatakan akan menambahkan data identifikasi AI ke semua gambar yang dihasilkan menggunakan sistem mereka. Sejauh ini, tampaknya pengguna secara umum menghargai upaya-upaya ini. Bulan lalu, Meta mengutip sebuah studi di mana 82% dari lebih dari 23.000 responden dari 13 negara mendukung label pada konten yang dihasilkan oleh AI “yang menggambarkan orang mengatakan hal-hal yang sebenarnya tidak mereka katakan.” TikTok mengatakan berencana untuk memperluas upaya penandaan AI mereka, termasuk dengan menambahkan data ke foto atau video yang dibuat menggunakan alat AI di platform mereka yang mungkin diunduh dan dibagikan orang lain. “Saat AI berevolusi, kami terus berinvestasi dalam memerangi konten AI yang merugikan dengan mengembangkan model deteksi proaktif kami, berkonsultasi dengan para ahli, dan bermitra dengan rekanan dalam solusi bersama,” tambah perusahaan itu. Baca lebih lanjut: AI Atlas: Panduan Anda untuk Kecerdasan Buatan Hari Ini. Catatan editor: CNET menggunakan mesin AI untuk membantu membuat beberapa puluh cerita, yang diberi label sesuai. Catatan yang sedang Anda baca terlampir pada artikel yang secara substantif berurusan dengan topik AI tetapi sepenuhnya dibuat oleh editor dan penulis ahli kami. Untuk lebih lanjut, lihat kebijakan AI kami.