CEO Microsoft, Satya Nadella, telah merespons kontroversi tentang gambar palsu AI eksplisit secara seksual yang melibatkan Taylor Swift. Dalam wawancara dengan NBC Nightly News yang akan ditayangkan pada hari Selasa mendatang, Nadella menyebut penyebaran gambar-gambar palsu yang dibuat tanpa persetujuan sebagai “mengkhawatirkan dan mengerikan,” dan mengatakan kepada pewawancara Lester Holt bahwa “saya pikir kita harus bertindak cepat dalam hal ini.”
Dalam transkrip yang didistribusikan oleh NBC menjelang acara tanggal 30 Januari, Holt meminta Nadella untuk menanggapi “luapan gambar-gambar palsu secara seksual yang, saya tekankan, palsu, dari Taylor Swift” di internet. Respons Nadella membuka beberapa isu kebijakan teknologi tetapi tidak banyak membahasnya—hal ini tidak mengherankan mengingat tidak ada solusi pasti yang tersedia.
Ada dua hal yang ingin saya sampaikan: Pertama, saya kembali ke apa yang saya anggap sebagai tanggung jawab kita, yaitu semua langkah pengamanan yang perlu kita terapkan terhadap teknologi agar lebih banyak konten aman yang dihasilkan. Ada banyak yang harus dilakukan dan sudah banyak yang dilakukan di sana. Tetapi ini adalah tentang keharmonisan global dan sosial—saya ingin katakan, keharmonisan dalam norma-norma tertentu. Dan kita dapat melakukannya—terutama ketika hukum dan penegak hukum serta platform teknologi dapat bekerja sama—saya pikir kita dapat mengatur banyak hal lebih dari yang kita kira—kita memberikan penghargaan pada diri kita sendiri.
Microsoft mungkin terkait dengan gambar-gambar palsu tentang Swift. Laporan 404 Media mengindikasikan bahwa gambar-gambar tersebut berasal dari komunitas pembuat pornografi nonkonsensual berbasis Telegram yang merekomendasikan penggunaan generator gambar Microsoft Designer. Secara teori, Designer menolak untuk menghasilkan gambar orang terkenal, tetapi generator AI dapat dengan mudah diperdaya, dan 404 menemukan bahwa aturan tersebut dapat dilanggar dengan sedikit perubahan pada instruksi. Meskipun hal ini tidak membuktikan bahwa Designer digunakan untuk gambar-gambar Swift, ini adalah kekurangan teknis yang dapat diatasi oleh Microsoft.
Namun, alat AI telah sangat mempermudah proses pembuatan gambar telanjang palsu dari orang sungguhan, yang menyebabkan kekacauan bagi para perempuan yang memiliki kekuasaan dan ketenaran jauh lebih sedikit daripada Swift. Mengendalikan produksi gambar tersebut tidak semudah meminta perusahaan-perusahaan besar memperkuat langkah pengamanan mereka. Bahkan jika platform-platform “Big Tech” seperti milik Microsoft terkunci, orang masih dapat menggunakan alat terbuka seperti Stable Diffusion untuk menghasilkan gambar NSFW meskipun upaya dilakukan untuk membuat hal tersebut sulit. Meskipun pengguna yang mengakses generator ini lebih sedikit, insiden Swift menunjukkan seberapa luas karya komunitas kecil dapat menyebar.
Ada opsi-opsi lain yang dapat diambil, seperti batasan jaringan sosial terhadap penyebaran gambar-gambar yang dibuat tanpa persetujuan atau keadilan pelaku yang menyebarluaskan gambar tersebut oleh para penggemar Swift. (Apakah itu dianggap sebagai “keharmonisan dalam norma-norma tertentu”?) Namun, untuk saat ini, rencana yang jelas dari Nadella hanyalah untuk menjaga keberlanjutan AI milik Microsoft sendiri.