Maria Diaz/ZDNET
Gambar-gambar yang dihasilkan oleh AI dapat digunakan untuk menipu Anda agar percaya bahwa konten palsu adalah nyata. Oleh karena itu, pengembang ChatGPT OpenAI telah mengembangkan alat yang bertujuan untuk memprediksi apakah sebuah gambar dibuat menggunakan generator gambar DALL-E 3 miliknya sendiri. Tingkat keberhasilan klasifikasi deteksi gambar ini, bagaimanapun, tergantung pada apakah dan bagaimana gambar tersebut dimodifikasi.
Pada hari Selasa, OpenAI memberikan akses kepada kelompok pertama tester ke alat deteksi gambar baru mereka. Tujuannya adalah untuk melibatkan peneliti independen untuk memberikan pendapat tentang efektivitas alat ini, menganalisis kegunaannya di dunia nyata, menentukan bagaimana alat tersebut dapat digunakan, dan melihat faktor-faktor yang menentukan konten yang dihasilkan oleh AI. Peneliti yang tertarik dapat mengajukan permohonan akses di halaman Program Akses Klasifikasi Deteksi DALL-E.
OpenAI telah menguji alat ini secara internal, dan hasilnya sejauh ini menjanjikan dalam beberapa hal dan mengecewakan dalam hal lain. Saat menganalisis gambar-gambar yang dihasilkan oleh DALL-E 3, alat ini mengidentifikasi mereka dengan benar sekitar 98% dari waktu. Selain itu, saat menganalisis gambar yang tidak dibuat oleh DALL-E 3, alat ini salah mengidentifikasinya sebagai dibuat oleh DALL-E 3 hanya sekitar 0,5% dari waktu.
Modifikasi kecil pada gambar juga memiliki sedikit dampak, menurut OpenAI. Tester internal dapat mengompres, memotong, dan mengubah tingkat saturasi pada gambar yang dibuat oleh DALL-E 3, dan alat ini menunjukkan tingkat keberhasilan yang lebih rendah namun masih relatif tinggi. Sampai saat ini, semuanya baik-baik saja.
Juga: Bagaimana menggunakan DALL-E 3 dalam ChatGPT
Sayangnya, alat ini tidak berkinerja dengan baik pada gambar yang mengalami perubahan lebih ekstensif. Dalam pos blognya, OpenAI tidak mengungkapkan tingkat keberhasilan dalam kasus-kasus ini, selain hanya mengatakan bahwa “modifikasi lain, bagaimanapun, dapat mengurangi kinerja.”.
Keefektifan alat ini menurun dalam kondisi seperti mengubah hue dari sebuah gambar, kata peneliti OpenAI Sandhini Agarwal kepada The Wall Street Journal (langganan diperlukan). OpenAI berharap dapat memperbaiki masalah-masalah semacam itu dengan memberikan akses kepada tester eksternal ke alat ini, tambah Agarwal.
Pengujian internal juga menguji alat ini untuk menganalisis gambar yang dibuat menggunakan model AI dari perusahaan lain. Dalam kasus-kasus ini, alat OpenAI hanya mampu mengidentifikasi 5% hingga 10% dari gambar dari model-model luar tersebut. Mengubah gambar-gambar tersebut, seperti mengubah hue, juga menyebabkan penurunan tajam dalam efektivitas, kata Agarwal kepada Journal. Sekali lagi, ini adalah batasan lain yang diharapkan oleh OpenAI untuk diperbaiki melalui pengujian lebih lanjut.
Salah satu kelebihan dari alat deteksi OpenAI – itu tidak bergantung pada watermark. Perusahaan lain menggunakan watermark untuk menunjukkan bahwa sebuah gambar dihasilkan oleh alat AI mereka sendiri, namun ini dapat dengan mudah dihapus, membuatnya tidak efektif.
Meskipun selalu menjadi ancaman potensial, gambar-gambar yang dihasilkan oleh AI menjadi masalah terutama dalam tahun pemilihan. Pihak-pihak yang bermusuhan, baik di dalam maupun di luar sebuah negara, dengan mudah dapat menggunakan gambar-gambar tersebut untuk menjatuhkan kandidat politik atau menyebarkan informasi negatif. Mengingat kemajuan yang terus berlangsung dalam pembuat gambar AI, mengetahui apa yang nyata dan yang palsu menjadi semakin sulit.
Juga: Generator gambar AI terbaik untuk dicoba sekarang
Dengan ancaman ini diingat, OpenAI dan Microsoft telah meluncurkan Dana Ketahanan Sosial sebesar $2 juta untuk memperluas pendidikan dan literasi AI di kalangan pemilih dan masyarakat yang rentan. Mengingat bahwa 2 miliar orang di seluruh dunia telah memilih atau akan memilih dalam pemilihan demokratis tahun ini, tujuannya adalah untuk memastikan bahwa individu dapat lebih baik dalam menavigasi informasi digital dan menemukan sumber-sumber yang dapat dipercaya.
OpenAI juga mengatakan bahwa mereka bergabung dengan Komite Pengarah C2PA (Koalisi untuk Provenans Konten dan Otentisitas). Digunakan sebagai bukti bahwa konten berasal dari sumber tertentu, C2PA adalah standar untuk sertifikasi konten digital yang diadopsi oleh penyedia perangkat lunak, produsen kamera, dan platform online. OpenAI mengatakan bahwa metadata C2PA disertakan dalam semua gambar yang dibuat dan diedit di DALL-E 3 dan ChatGPT, dan akan segera muncul dalam video yang dibuat oleh generator video Sora milik OpenAI.
\”