Tuntutan Hukum Terhadap Kebingungan Mengungkap Halusinasi Berita Palsu

Perplexity tidak merespons permintaan komentar. Dalam sebuah pernyataan yang dikirimkan melalui email ke WIRED, Chief Executive News Corp Robert Thomson membandingkan Perplexity secara tidak menguntungkan dengan OpenAI. “Kami mendukung perusahaan yang berprinsip seperti OpenAI, yang memahami bahwa integritas dan kreativitas sangat penting jika kita ingin mewujudkan potensi Kecerdasan Buatan,” pernyataan tersebut mengatakan. “Perplexity bukan satu-satunya perusahaan AI yang menyalahgunakan kekayaan intelektual dan bukan satu-satunya perusahaan AI yang akan kami kejar dengan gigih dan ketat. Kami telah menjelaskan bahwa kami lebih suka merayu daripada menggugat, tetapi, demi jurnalis kami, penulis kami, dan perusahaan kami, kami harus menantang kleptokrasi konten.” OpenAI juga menghadapi tuduhan pelemahan merek dagangnya sendiri, meskipun. Dalam New York Times v. OpenAI, Times mengklaim bahwa ChatGPT dan Bing Chat akan menyalahgunakan kutipan yang dibuat-buat kepada Times, dan menuduh OpenAI dan Microsoft merusak reputasinya melalui pelemahan merek dagang. Dalam satu contoh yang dikutip dalam gugatan, Times mengklaim bahwa Bing Chat mengatakan bahwa Times menyebut anggur merah (secara moderat) sebagai makanan “sehat untuk jantung,” padahal sebenarnya tidak; Times berpendapat bahwa laporan sebenarnya telah membantah klaim tentang kesehatan minum secukupnya. “Menyalin artikel berita untuk mengoperasikan produk AI generatif komersial yang bersifat substitusi adalah melanggar hukum, seperti yang kami jelaskan dalam surat kami kepada Perplexity dan litigasi kami melawan Microsoft dan OpenAI,” kata direktur komunikasi eksternal NYT Charlie Stadtlander. “Kami mendukung gugatan ini dari Dow Jones dan New York Post, yang merupakan langkah penting untuk memastikan bahwa konten penerbit dilindungi dari jenis penyalahgunaan ini.” Jika penerbit menang dalam menegaskan bahwa halusinasi dapat melanggar hukum merek dagang, perusahaan AI bisa menghadapi “kesulitan besar” menurut Matthew Sag, seorang profesor hukum dan kecerdasan buatan di Universitas Emory. “Benar-benar tidak mungkin untuk menjamin bahwa model bahasa tidak akan mengalami halusinasi,” kata Sag. Menurut pandangannya, cara kerja model bahasa dengan memprediksi kata-kata yang terdengar benar sebagai respons terhadap masukan selalu merupakan jenis halusinasi – terkadang hanya terdengar lebih masuk akal daripada yang lain. “Kami hanya menyebutnya halusinasi jika tidak cocok dengan realitas kita, tetapi prosesnya sama persis apakah kami suka hasilnya atau tidak.”

MEMBACA  Headphone dan Earbuds Bluetooth Multipoint Terbaik untuk Tahun 2024

Tinggalkan komentar