OpenAI dan Anthropic mendukung rancangan undang-undang AI yang berbeda di Dewan Perwakilan Illinois. RUU ini mencoba menjawab apa yang harus dilakukan ketika AI menyebabkan sesuatu yang sangat buruk.
Ini adalah babak terbaru dalam perseteruan berkelanjutan kedua perusahaan tentang keamanan dan regulasi AI. CEO mereka saling menyerang di publik atas pendekatan masing-masing.
OpenAI mendukung RUU SB 3444. Dalam RUU ini, pengembang AI terdepan tidak akan bertanggung jawab jika menyebabkan kematian atau cedera serius pada 100 orang atau lebih, atau kerusakan properti lebih dari $1 miliar. Perlindungan ini termasuk jika AI memungkinkan pembuatan senjata kimia, biologis, radiologis, atau nuklir.
Minggu ini, Anthropic mengatakan mereka menolak RUU tersebut, seperti pertama kali dilaporkan WIRED.
“Kami menolak RUU ini. Undang-undang transparansi yang baik harus memastikan keamanan publik dan akuntabilitas perusahaan yang mengembangkan teknologi kuat ini, bukan memberi kartu bebas dari tanggung jawab,” kata Cesar Fernandez dari Anthropic.
Sebaliknya, Anthropic mendukung RUU terpisah, SB 3261. RUU ini mewajibkan pengembang AI mempublikasikan rencana keamanan publik dan perlindungan anak di situs web mereka. RUU ini juga membuat sistem pelaporan insiden untuk memberi tahu publik tentang risiko bencana.
RUU ini juga mencakup keselamatan anak, yang tidak ada dalam RUU yang didukung OpenAI. Dalam SB 3261, pengembang AI bisa bertanggung jawab jika model mereka menyebabkan distress emosional parah, kematian, atau cedera pada anak.
Standar yang ‘Sangat Rendah’
Para ahli mengatakan SB 3444 kecil kemungkinan disetujui karena pendekatannya terlalu lemah untuk tanggung jawab perusahaan. Illinois sendiri sudah menjadi pemimpin dalam regulasi AI.
SB 3444 mewajibkan perusahaan memiliki rencana keamanan AI publik, tapi tidak ada ukuran penegakannya. Jika pengembang tidak “sengaja atau ceroboh” menyebabkan insiden, mereka akan dilindungi dari tuntutan.
Standar “sengaja atau ceroboh” bukanlah standar hukum umum untuk kegiatan sangat berbahaya, kata Anat Lior, pakar tanggung jawab AI. “Mereka menetapkan standar yang sangat rendah di sini. Membuktikan bahwa Anda melakukan sesuatu secara sengaja dengan AI akan sangat sulit.”
Profesor hukum Gabriel Weil mengatakan pendekatan RUU yang didukung OpenAI itu “sulit dipertahankan”. “Itu seperti persyaratan yang sangat lemah, dan sebagai gantinya Anda dapat perlindungan hampir total dari tanggung jawab.”
Juru bicara OpenAI mengatakan perusahaan mendukung pendekatan SB 3444 karena mengurangi “risiko bahaya serius dari sistem AI paling canggih sambil tetap mengizinkan teknologi ini digunakan masyarakat.”
Mereka menambahkan bahwa OpenAI mendukung upaya meningkatkan transparansi dan pengurangan risiko dalam protokol keamanan AI. Perusahaan akan terus bekerja dengan negara bagian sambil menunggu undang-undang federal.