Microsoft dan OpenAI mendapatkan whistleblower saat insinyur Copilot memberikan peringatan terhadap gambar-gambar berbahaya dan ofensif.

Seorang insinyur Microsoft sedang memberikan peringatan tentang gambar-gambar ofensif dan berbahaya yang katanya terlalu mudah dibuat oleh alat pembuat gambar kecerdasan buatan perusahaan, dengan mengirimkan surat pada hari Rabu kepada regulator AS dan dewan direksi raksasa teknologi tersebut untuk mengambil tindakan.

Shane Jones memberitahu Associated Press bahwa ia menganggap dirinya sebagai seorang pengungkap informasi dan bahwa ia juga bertemu bulan lalu dengan staf Senat AS untuk membagikan kekhawatirannya.

Komisi Perdagangan Federal AS mengonfirmasi bahwa mereka menerima suratnya pada hari Rabu tetapi menolak memberikan komentar lebih lanjut.

Microsoft mengatakan bahwa mereka berkomitmen untuk mengatasi kekhawatiran karyawan tentang kebijakan perusahaan dan menghargai “upaya Jones dalam mempelajari dan menguji teknologi terbaru kami untuk lebih meningkatkan keamanannya.” Perusahaan tersebut mengatakan telah menyarankan Jones untuk menggunakan “saluran pelaporan internal yang solid” perusahaan untuk menyelidiki dan mengatasi masalah tersebut. CNBC pertama kali melaporkan tentang surat-surat tersebut.

Jones, seorang kepala pengembangan perangkat lunak utama, mengatakan bahwa ia sudah menghabiskan tiga bulan mencoba mengatasi kekhawatiran keamanannya tentang Copilot Designer Microsoft, alat yang dapat menghasilkan gambar-gambar baru dari petunjuk tertulis. Alat tersebut berasal dari generator gambar kecerdasan buatan lainnya, DALL-E 3, yang dibuat oleh mitra bisnis dekat Microsoft, OpenAI.

“Salah satu risiko yang paling mengkhawatirkan dengan Copilot Designer adalah ketika produk menghasilkan gambar yang menambahkan konten berbahaya meskipun permintaan yang tidak berbahaya dari pengguna,” katanya dalam suratnya yang ditujukan kepada Ketua FTC Lina Khan. “Misalnya, ketika hanya menggunakan petunjuk ‘kecelakaan mobil’, Copilot Designer cenderung secara acak menyertakan gambar yang tidak pantas, secara seksual mengobjektifikasi seorang wanita dalam beberapa gambar yang diciptakannya.”

MEMBACA  Penjualan eceran Kanada tumbuh 0,4% pada bulan September didorong oleh sektor makanan dan minuman menurut Investing.com

Konten berbahaya lainnya melibatkan kekerasan serta “kekencangan politik, minum-minuman beralkohol oleh anak di bawah umur dan penggunaan narkoba, penyalahgunaan merek dagang dan hak cipta perusahaan, teori konspirasi, dan agama untuk beberapa nama,” katanya kepada FTC. Suratnya kepada Microsoft mendorong perusahaan untuk menariknya dari pasar sampai lebih aman.

Ini bukan kali pertama Jones mengungkapkan kekhawatirannya secara publik. Dia mengatakan Microsoft awalnya menasihatinya untuk membawa temuannya langsung ke OpenAI, jadi itulah yang dia lakukan.

Dia juga memposting surat kepada OpenAI di LinkedIn yang dimiliki Microsoft pada bulan Desember, yang membuat seorang manajer memberitahunya bahwa tim hukum Microsoft “menuntut saya menghapus pos itu, yang saya lakukan dengan enggan,” menurut suratnya kepada dewan direksi.

Selain ke Komite Perdagangan Senat AS, Jones juga telah membawa kekhawatirannya ke jaksa agung negara bagian di Washington, di mana Microsoft berkantor pusat.

Jones memberitahu AP bahwa sementara “masalah inti” ada pada model DALL-E OpenAI, mereka yang menggunakan ChatGPT OpenAI untuk menghasilkan gambar AI tidak akan mendapatkan keluaran yang berbahaya yang sama karena kedua perusahaan menimpa produk mereka dengan pengaman yang berbeda.

“Banyak masalah dengan Copilot Designer sudah diatasi dengan pengaman ChatGPT sendiri,” katanya melalui pesan teks.

Sejumlah generator gambar AI impresif pertama kali muncul pada tahun 2022, termasuk generasi kedua DALL-E 2 OpenAI. Itu — dan rilis berikutnya dari bot obrolan ChatGPT OpenAI — memicu kekaguman publik yang menempatkan tekanan komersial pada raksasa teknologi seperti Microsoft dan Google untuk merilis versi mereka sendiri.

Tetapi tanpa pengaman yang efektif, teknologi tersebut menimbulkan bahaya, termasuk kemudahan dengan mana pengguna dapat menghasilkan gambar “deepfake” berbahaya dari tokoh politik, zona perang, atau keadaan telanjang tanpa persetujuan yang palsu tampak seperti orang nyata dengan wajah yang dikenali. Google telah sementara menangguhkan kemampuan chatbot Gemini-nya untuk menghasilkan gambar orang setelah kemarahan atas bagaimana ia menggambarkan ras dan etnisitas, seperti dengan menempatkan orang berkulit warna dalam seragam militer era Nazi.

MEMBACA  Penurunan Penjualan Intel Menunjukkan Harga Ketinggalan Dalam Perlombaan AI

Berlangganan buletin Eye on AI untuk tetap up-to-date tentang bagaimana AI membentuk masa depan bisnis. Daftar gratis.