“
Arve Hjalmar Holmen, seorang warga negara Norwegia, mengatakan dia meminta ChatGPT untuk memberitahunya tentang dirinya, dan jawabannya adalah sebuah halusinasi yang mengerikan yang mengklaim bahwa dia telah membunuh anak-anaknya dan masuk penjara karena tindakan kekerasan tersebut. Mengingat bagaimana kecerdasan buatan tersebut mencampur tanggapan palsu dengan detail nyata tentang kehidupan pribadinya, Holmen mengajukan keluhan resmi terhadap pembuat ChatGPT, OpenAI.
Pernahkah Anda mencari diri sendiri di Google hanya untuk melihat apa yang dikatakan internet tentang Anda? Nah, seorang pria memiliki ide yang sama dengan ChatGPT, dan sekarang dia telah mengajukan keluhan terhadap OpenAI berdasarkan apa yang dikatakan kecerdasan buatan tersebut tentang dirinya.
Arve Hjalmar Holmen, dari Trondheim, Norwegia, mengatakan dia mengajukan pertanyaan kepada ChatGPT, “Siapakah Arve Hjalmar Holmen?”, dan tanggapannya—yang tidak akan kami cetak secara lengkap—mengatakan bahwa dia dinyatakan bersalah atas pembunuhan dua putranya, yang berusia 7 dan 10 tahun, dan dihukum penjara selama 21 tahun sebagai akibatnya. Juga dikatakan bahwa Holmen mencoba membunuh putra ketiganya.
Namun, tidak ada dari hal-hal ini yang benar. ChatGPT tampaknya mengeluarkan cerita yang sama sekali palsu yang diyakininya benar sepenuhnya, yang disebut sebagai “halusinasi” kecerdasan buatan.
Berdasarkan tanggapannya, Holmen mengajukan keluhan terhadap OpenAI dengan bantuan Noyb, sebuah pusat hak digital Eropa, yang menuduh raksasa kecerdasan buatan tersebut melanggar prinsip ketepatan yang ditetapkan dalam Peraturan Perlindungan Data Umum Uni Eropa (GDPR).
“Pelapor sangat terganggu oleh hasil-hasil ini, yang dapat memiliki efek berbahaya dalam kehidupan pribadinya, jika mereka direproduksi atau somehow bocor di komunitas atau kota asalnya,” bunyi keluhan tersebut.
Yang berbahaya dari tanggapan ChatGPT, menurut keluhan tersebut, adalah bahwa ia mencampurkan elemen-elemen nyata dari kehidupan pribadi Holmen dengan kebohongan total. ChatGPT benar tentang kota asal Holmen, dan juga benar tentang jumlah anak—khususnya, putra—yang dimilikinya.
JD Harriman, mitra di Foundation Law Group LLP di Burbank, California, mengatakan kepada Fortune bahwa Holmen mungkin akan mengalami kesulitan membuktikan fitnah.
“Jika saya membela kecerdasan buatan, pertanyaan pertama adalah ‘haruskah orang percaya bahwa pernyataan yang dibuat oleh kecerdasan buatan adalah fakta?'” tanya Harriman. “Ada banyak contoh kecerdasan buatan yang berbohong.”
Selain itu, kecerdasan buatan tidak mempublikasikan atau mengkomunikasikan hasilnya kepada pihak ketiga. “Jika pria itu meneruskan pesan AI palsu kepada orang lain, maka dia menjadi penerbit dan dia harus menuntut dirinya sendiri,” kata Harriman.
Holmen mungkin juga akan mengalami kesulitan membuktikan aspek kelalaian dari fitnah, karena “kecerdasan buatan mungkin tidak memenuhi syarat sebagai pelaku yang dapat melakukan kelalaian” dibandingkan dengan orang atau perusahaan, kata Harriman. Holmen juga harus membuktikan bahwa ada kerugian yang disebabkan, seperti kehilangan pendapatan atau bisnis, atau mengalami rasa sakit dan penderitaan.
Avrohom Gefen, mitra di Vishnick McGovern Milizio LLP di New York, mengatakan kepada Fortune bahwa kasus fitnah seputar halusinasi kecerdasan buatan “belum diuji” di AS, namun menyebutkan sebuah kasus tertunda di Georgia di mana seorang penyiar radio mengajukan gugatan fitnah yang bertahan dari mosi OpenAI untuk menolak, jadi “kita mungkin segera mendapatkan indikasi bagaimana pengadilan akan menangani klaim-klaim ini.”
Keluhan resmi meminta OpenAI untuk “menghapus hasil yang fitnah terhadap pelapor,” menyempurnakan modelnya sehingga menghasilkan hasil yang akurat tentang Holmen, dan didenda karena dugaan pelanggaran aturan GDPR, yang mewajibkan OpenAI untuk mengambil “setiap langkah yang wajar” untuk memastikan data pribadi “dihapus atau diperbaiki tanpa menunda-nunda.”
“Dengan semua gugatan hukum, tidak ada yang otomatis atau mudah,” kata Harriman kepada Fortune. “Seperti yang dikatakan Ambrose Bierce, Anda masuk ke litigasi sebagai seekor babi dan keluar sebagai sosis.”
OpenAI tidak segera menanggapi permintaan komentar dari Fortune.
Cerita ini awalnya ditampilkan di Fortune.com
“