Pengadilan Melarang Penggunaan Bukti Video yang Diperkuat AI Karena Itu Bukan Cara Kerja AI

Seorang hakim di negara bagian Washington telah memblokir bukti video yang telah “ditingkatkan” oleh kecerdasan buatan dari diserahkan dalam sidang pembunuhan tiga kali lipat. Dan itu adalah hal yang baik, mengingat kenyataan bahwa terlalu banyak orang sepertinya berpikir menerapkan filter AI dapat memberi mereka akses ke data visual rahasia.

Apa yang Mungkin Terjadi di Masa Depan AI Medis?

Hakim Leroy McCullough di King County, Washington menulis dalam putusan baru bahwa teknologi AI yang digunakan, “metode transparan untuk mewakili apa yang model AI ‘pikirkan’ harus ditampilkan,” menurut laporan baru dari NBC News pada hari Selasa. Dan itu adalah sedikit kejelasan menyegarkan tentang apa yang terjadi dengan alat-alat AI ini dalam dunia hiruk-pikuk AI.

“Pengadilan ini menemukan bahwa penerimaan bukti yang ditingkatkan-oleh-AI ini akan menyebabkan kebingungan dari masalah-masalah dan perubahan dari kesaksian saksi mata, dan bisa menyebabkan sidang yang memakan waktu tentang proses yang tidak dapat dipastikan oleh rekan sejawat yang digunakan oleh model AI,” tulis McCullough.

Kasus ini melibatkan Joshua Puloka, seorang pria berusia 46 tahun yang dituduh membunuh tiga orang dan melukai dua orang lainnya di sebuah bar di luar Seattle pada tahun 2021. Pengacara Puloka ingin memperkenalkan video ponsel yang diambil oleh seorang penonton yang telah ditingkatkan oleh AI, meskipun tidak jelas apa yang mereka percayai bisa didapat dari rekaman yang diubah tersebut.

Pengacara Puloka dilaporkan menggunakan seorang “ahli” dalam produksi video kreatif yang sebelumnya tidak pernah bekerja pada kasus pidana untuk “meningkatkan” video tersebut. Alat AI yang digunakan ahli yang tidak disebutkan namanya ini dikembangkan oleh Topaz Labs berbasis di Texas, yang tersedia bagi siapa saja dengan koneksi internet.

MEMBACA  Ulasan M3 MacBook Air (2024): Hasil Benchmark dari laptop AI Apple mungkin akan mengejutkan Anda

Pengenalan alat pemrosesan gambar berbasis AI dalam beberapa tahun terakhir telah menyebabkan kebingungan luas tentang apa yang mungkin dengan teknologi ini. Banyak orang percaya bahwa menjalankan foto atau video melalui alat pemrosesan AI dapat memberi Anda gambaran yang lebih baik tentang informasi visual yang sudah ada. Namun, pada kenyataannya, perangkat lunak AI tidak menyediakan gambaran yang lebih jelas dari informasi yang ada dalam gambar itu – perangkat lunak tersebut hanya menambahkan informasi yang sebelumnya tidak ada.

Sebagai contoh, ada teori konspirasi luas bahwa Chris Rock mengenakan semacam pelindung wajah ketika dia dipukul oleh Will Smith di Academy Awards pada tahun 2022. Teori itu dimulai karena orang mulai menjalankan tangkapan layar pukulan melalui alat pemrosesan gambar, percaya bahwa mereka bisa mendapatkan pandangan yang lebih baik tentang apa yang sedang terjadi.

Tapi itulah yang terjadi ketika Anda menjalankan gambar melalui peningkatan AI. Program komputer hanya menambahkan informasi lebih dalam upaya membuat gambar menjadi lebih tajam, yang sering kali dapat merusak apa yang sebenarnya ada. Dengan menggunakan slider di bawah, Anda dapat melihat gambar berpixel yang viral sebelum orang mulai memasukkannya melalui program AI dan “menemukan” hal-hal yang sebenarnya tidak ada dalam siaran asli.

Berbagai foto dan video resolusi tinggi dari insiden tersebut secara meyakinkan menunjukkan bahwa Rock tidak memiliki pelindung di wajahnya. Namun, hal itu tidak menghentikan orang-orang dari mempercayai bahwa mereka bisa melihat sesuatu yang tersembunyi di depan mata dengan “mengupas” gambar menjadi “8K”.

Munculnya produk yang diberi label AI telah menciptakan banyak kebingungan di kalangan orang biasa tentang apa yang sebenarnya dapat dicapai oleh alat-alat ini. Model bahasa besar seperti ChatGPT telah meyakinkan orang-orang yang sebaliknya cerdas bahwa bot obrolan ini mampu melakukan penalaran kompleks ketika sebenarnya tidak begitu yang terjadi di balik layar. LLM pada dasarnya hanya memprediksi kata berikutnya yang harus dikeluarkan untuk terdengar seperti manusia yang masuk akal. Tetapi karena mereka cukup baik dalam terdengar seperti manusia, banyak pengguna percaya mereka melakukan sesuatu yang lebih rumit daripada trik sulap.

MEMBACA  Merasa lelah dengan menggali salju? Alat pemotong salju listrik ini membantu saya mengatasi musim dingin di Cleveland

Dan itu sepertinya adalah kenyataan yang akan kita hadapi selama miliaran dolar dialirkan ke perusahaan AI. Banyak orang yang seharusnya tahu lebih baik percaya ada sesuatu yang mendalam terjadi di balik tirai dan dengan cepat menyalahkan “bias” dan penghalang yang terlalu ketat. Tetapi ketika Anda menggali sedikit lebih dalam, Anda akan menemukan bahwa halusinasi yang disebut tidak ada kekuatan misterius yang dilakukan oleh orang yang terlalu sadar, atau apapun itu. Mereka hanya produk dari teknologi AI ini yang tidak terlalu baik dalam pekerjaannya.

Untungnya, seorang hakim di Washington telah mengakui bahwa teknologi ini tidak mampu memberikan gambaran yang lebih baik. Meskipun kami tidak meragukan bahwa ada banyak hakim di seluruh AS yang telah terbuai oleh hiruk-pikuk AI dan tidak memahami implikasinya. Hanya masalah waktu sebelum kita mendapatkan video yang ditingkatkan oleh AI yang digunakan di pengadilan yang tidak menunjukkan apa pun kecuali informasi visual yang ditambahkan jauh setelahnya.