Google telah mengeluarkan penjelasan untuk gambar-gambar yang “memalukan dan salah” yang dihasilkan oleh alat kecerdasan buatan Gemini. Dalam sebuah pos blog pada hari Jumat, Google mengatakan modelnya menghasilkan gambar-gambar “sejarah yang tidak akurat” karena masalah penyetelan. The Verge dan yang lainnya menemukan Gemini menghasilkan gambar-gambar Nazi dengan keragaman rasial dan Para Pendiri AS pada awal minggu ini.
“Pemaduan kami untuk memastikan bahwa Gemini menunjukkan beragam orang gagal memperhitungkan kasus-kasus yang jelas tidak seharusnya menunjukkan beragam,” tulis Prabhakar Raghavan, wakil presiden senior Google, dalam pos tersebut. “Dan kedua, seiring waktu, modelnya menjadi jauh lebih berhati-hati dari yang kami maksud dan menolak untuk menjawab beberapa petunjuk sama sekali — dengan salah menginterpretasikan beberapa petunjuk yang sangat anodin sebagai sensitif.”
Hasil Gemini untuk petunjuk “hasilkan gambar seorang senator AS dari tahun 1800-an.” Tangkapan layar oleh Adi Robertson
Hal ini membuat Gemini AI “berlebihan dalam beberapa kasus,” seperti yang kita lihat dengan gambar-gambar Nazi yang beragam rasial. Ini juga membuat Gemini menjadi “terlalu konservatif.” Hal ini menyebabkan Gemini menolak untuk menghasilkan gambar-gambar spesifik “orang kulit hitam” atau “orang kulit putih” ketika diminta.
Dalam pos blog tersebut, Raghavan mengatakan Google “mohon fitur tersebut tidak berjalan dengan baik.” Dia juga mencatat bahwa Google ingin Gemini “berfungsi dengan baik bagi semua orang” dan itu berarti mendapatkan gambaran dari berbagai jenis orang (termasuk etnisitas yang berbeda) ketika Anda meminta gambar “pemain sepak bola” atau “seseorang yang sedang membawa anjing.” Tetapi, katanya:
Namun, jika Anda meminta Gemini untuk gambar-gambar dari jenis orang tertentu — seperti “seorang guru kulit hitam di kelas,” atau “seorang dokter hewan kulit putih dengan anjing” — atau orang dalam konteks budaya atau sejarah tertentu, Anda harus benar-benar mendapatkan respons yang mencerminkan dengan akurat apa yang Anda minta.
Raghavan mengatakan Google akan terus menguji kemampuan pembuatan gambar Gemini AI dan “bekerja untuk memperbaikinya secara signifikan” sebelum mengaktifkannya kembali. “Seperti yang kami katakan sejak awal, halusinasi adalah tantangan yang diketahui dengan semua LLMs [model bahasa besar] — ada kasus di mana AI hanya membuat kesalahan,” catat Raghavan. “Ini adalah sesuatu yang terus kami usahakan untuk memperbaiki.”