Salah satu strategi potensial untuk diversifikasi output dari model kecerdasan buatan adalah dengan menambahkan pengaman dan memodifikasi petunjuk pengguna, mendorong perangkat lunak menuju inklusivitas. OpenAI tampaknya telah mengambil pendekatan ini. Ketika saya meminta Dall-E 3 melalui ChatGPT untuk “menggambar kartun pasangan queer menikmati malam di Castro,” itu memperluas petunjuk gambar, tanpa saya meminta, menjadi sebuah paragraf yang mencakup detail gender, ras, dan latar belakang tambahan. Berikut ini adalah petunjuk lengkap yang dibuat oleh ChatGPT dari permintaan gambar awal saya:
Ilustrasi kartun dari pasangan queer menikmati malam di Distrik Castro, San Francisco. Mereka dengan senang hati berjalan berpegangan tangan, tersenyum dan berbincang-bincang. Salah satu orang adalah wanita Kaukasia dengan rambut merah pendek, mengenakan jaket denim modis dan celana jeans. Orang lainnya adalah pria kulit hitam dengan rambut hitam pendek, mengenakan kaos hijau kasual dan celana hitam. Latar belakang menampilkan kehidupan jalanan yang berwarna-warni dan ramai di Castro, dengan bendera pelangi, kafe yang ramai, dan keramaian. Suasana hati adalah ceria dan ramah, menyoroti keragaman dan inklusivitas daerah tersebut.
Meskipun membantu dalam beberapa kasus, pengubahan petunjuk juga bisa membuat frustrasi pengguna ketika diterapkan dengan buruk. CEO Google meminta maaf ketika Gemini, platform generative-AI Google, mengubah petunjuk pengguna dan menghasilkan foto-foto Nazi kulit hitam serta gambar-gambar lain yang tidak sesuai sejarah. Apakah ada plot rahasia di dalam perusahaan untuk menghapus orang Kaukasia dari sejarah? Lebih mungkin bahwa insinyur-insinyur Gemini menemukan alat tersebut awalnya menghasilkan terlalu banyak gambar pria kulit putih, seperti banyak alat AI saat ini lakukan, dan pengembang Google tampaknya telah berlebihan dalam penyesuaian korektif mereka selama terburu-buru meluncurkan chatbot langganan perusahaan.
Bahkan dengan data model yang lebih baik dan pengaman perangkat lunak, keberagaman eksistensi manusia bisa menghindari kategorisasi algoritmik yang kaku. “Mereka pada dasarnya menggunakan masa lalu untuk menciptakan masa depan,” kata William Agnew, seorang fellow pascadoktoral di Carnegie Mellon dan pengorganisir Queer in AI yang sudah lama. “Ini tampaknya bertentangan dengan potensi pertumbuhan dan perubahan tanpa batas yang merupakan bagian besar dari komunitas queer.” Dengan memperkuat stereotip, tidak hanya alat AI berisiko sangat mewakili kelompok minoritas kepada masyarakat umum, algoritma-algoritma ini juga memiliki potensi untuk membatasi bagaimana orang queer melihat dan memahami diri mereka sendiri.
Layak untuk menghentikan sejenak dan mengakui kecepatan pesat di mana beberapa aspek kecerdasan buatan generatif terus berkembang. Pada tahun 2023, internet dihebohkan dengan video AI monster Will Smith makan spaghetti. Setahun kemudian, klip teks-ke-video dari model Sora OpenAI yang belum dirilis masih belum sempurna tetapi seringkali aneh dengan realisme fotonya.
Alat video AI masih dalam tahap penelitian dan belum dirilis ke publik, namun saya ingin lebih memahami bagaimana itu menggambarkan orang queer. Jadi, saya menghubungi OpenAI dan memberikan tiga petunjuk untuk Sora: “sekelompok teman yang beragam merayakan pada parade kebanggaan San Francisco di atas sebuah rakit berwarna-warni”; “dua wanita dalam gaun pengantin menakjubkan menikah di sebuah peternakan di Kansas”; dan “seorang pria transgender dan pasangannya yang non-biner bermain papan permainan di luar angkasa.” Sebagai gantinya, saya menerima tiga klip video eksklusif yang diklaim oleh perusahaan dihasilkan oleh model teks-ke-video mereka tanpa modifikasi.
Ketika WIRED menunjukkan klip-klip ini kepada anggota Queer in AI, mereka mempertanyakan definisi keragaman Sora terkait kelompok teman di parade kebanggaan. “Model-model ini adalah dasar kita untuk seperti apa keragaman itu?” tanya Sabine Weber, seorang ilmuwan komputer dari Jerman. Selain menyoroti daya tarik berlebih dari manusia dalam video, kejadian umum dalam visualisasi AI, Weber mempertanyakan mengapa tidak ada representasi yang lebih banyak dari orang queer yang lebih tua, berbadan besar, atau memiliki disabilitas yang terlihat.
Di penghujung percakapan kami, Agnew membahas mengapa representasi algoritmik bisa membuat cemas bagi orang LGBTQ. “Sangat mudah untuk membuat mereka menggabungkan hal-hal yang pada dirinya sendiri baik tetapi bersama-sama sangat problematik,” kata mereka. “Saya sangat khawatir bahwa penampakan diri kita, yang sudah menjadi medan perang konstan, tiba-tiba akan diambil dari tangan kita.” Bahkan jika alat AI mencakup representasi yang lebih holistik dari orang queer di masa depan, gambaran sintetis tersebut dapat menimbulkan konsekuensi tak terduga.