Momen Paling Bodoh AI di Tahun 2023

Foto: Andrey_Popov (Shutterstock)

Mungkin Anda sudah mendengar bahwa ChatGPT memiliki kecenderungan untuk membuat kebohongan dan menyatakannya sebagai fakta, atau yang para ahli sebut sebagai “halusinasi” AI. Namun, dua pengacara di Kota New York tetap menggunakan ChatGPT untuk menghasilkan beberapa dokumen hukum. Tak terkejut, kecerdasan buatan tersebut membuat kutipan dan referensi palsu dari udara tipis, namun para pengacara tersebut tetap mengajukan dokumen-dokumen tersebut tanpa melakukan pengecekan fakta.

Kelicikan ini terungkap ketika pengadilan menemukan bahwa enam kasus hukum yang digunakan sebagai referensi adalah khayalan semata. Hakim menulis bahwa para pengacara, Peter LoDuca dan Steven A. Schwartz, membuat keadaan semakin buruk dengan berbohong kepada pengadilan. Ketika pengadilan mempertanyakan keabsahan hukum yang mereka ciptakan, hakim menyebut Schwartz memberikan “penjelasan yang berubah-ubah dan bertentangan” sementara LoDuca berpura-pura sedang berlibur untuk meminta lebih banyak waktu.

Hakim Federal P. Kevin Castel menulis bahwa para pengacara dan firma mereka, Levidow, Levidow & Oberman, P.C., bertindak dengan niat buruk dan berbohong kepada pengadilan untuk menutupi kesalahan mereka. Para responden “mengabaikan tanggung jawab mereka ketika mereka mengajukan opini yudisial yang tidak ada dengan kutipan palsu dan referensi yang dibuat oleh alat kecerdasan buatan ChatGPT, dan mereka tetap mempertahankan opini palsu tersebut setelah perintah pengadilan mempertanyakan keberadaannya,” tulis Hakim Castel dalam putusannya.

MEMBACA  Wordle hari ini: Jawaban dan petunjuk untuk 30 Maret