Gambar: imaginima/iStock/Getty Images Plus via Getty Images
Ikuti ZDNET: Tambahkan kami sebagai sumber pilihan di Google.
—
Intisari ZDNET
- Dua undang-undang utama negara bagian tentang AI telah berlaku, sementara regulasi federal masih belum jelas.
- Trump kembali melancarkan serangan terhadap legislasi AI tingkat negara bagian.
- Para peneliti masih belum puas dengan hukum yang ada saat ini.
—
Memasuki beberapa minggu pertama tahun 2026, pemerintahan Trump belum mengajukan rancangan undang-undang AI di tingkat federal. Sementara itu, undang-undang keselamatan AI pertama di California dan New York — kedua negara bagian yang memiliki pengaruh kuat terhadap perusahaan teknologi — telah mulai berlaku. Namun, sebuah perintah eksekutif pada Desember lalu dan gugus tugas yang dibentuk kemudiannya menghidupkan kembali serangan terhadap hukum AI negara bagian. Apa implikasi praktis dari undang-undang baru ini, dan apakah mereka dapat bertahan dari pengawasan di tingkat federal?
Baca juga: 5 cara aturan dan regulasi dapat memandu inovasi AI Anda
SB-53 dan RAISE Act
California SB-53, undang-undang keselamatan AI baru yang berlaku mulai 1 Januari, mewajibkan pengembang model untuk mengumumkan cara mereka mengurangi risiko terbesar dari AI dan melaporkan insiden keselamatan yang melibatkan model mereka (atau menghadapi denda hingga $1 juta jika tidak). Meski tidak sekomprehensif upaya legislasi sebelumnya di negara bagian itu, hukum baru ini praktis satu-satunya di lanskap AI yang minim regulasi. Belum lama ini, hukum tersebut disusul oleh RAISE Act, yang disahkan di New York akhir Desember dan memiliki kemiripan dengan hukum California.
RAISE Act juga menetapkan persyaratan pelaporan untuk insiden keselamatan yang melibatkan model dari segala ukuran, tetapi memiliki ambang batas denda tertinggi $3 juta setelah pelanggaran pertama perusahaan. Jika SB-53 mewajibkan perusahaan memberi tahu negara bagian dalam 15 hari setelah insiden, RAISE Act menuntut pemberitahuan dalam 72 jam.
Baca juga: Tindakan penyeimbangan AI yang tidak boleh gagal dijalankan perusahaan Anda pada 2026
SB 1047, versi awal SB 53, sebelumnya mewajibkan lab AI untuk menguji keamanan model yang biayanya lebih dari $100 juta dan mengembangkan mekanisme penghentian darurat (kill switch). Rancangan itu gagal karena dikhawatirkan akan membatasi penciptaan lapangan kerja dan inovasi — respons umum terhadap upaya regulasi, terutama dari pemerintahan saat ini.
SB 53 lebih longgar. Seperti RAISE Act, undang-undang ini menargetkan perusahaan dengan pendapatan kotor tahunan lebih dari $500 juta, sebuah ambang yang membebaskan banyak startup AI kecil dari persyaratan pelaporan dan dokumentasi.
"Menarik bahwa ada ambang batas pendapatan ini, terutama mengingat banyak model AI yang lebih ramping namun tetap mampu melakukan banyak pemrosesan dan dapat digunakan perusahaan kecil," ujar pengacara perlindungan data Lily Li, pendiri Metaverse Law, kepada ZDNET. Dia mencatat bahwa Gubernur Gavin Newsom memveto SB-1047 sebagian karena dikhawatirkan membebani perusahaan kecil, kekhawatiran yang juga disuarakan kelompok lobi.
Baca juga: Khawatir AI akan mengambil pekerjaan jarak jauh Anda? Untuk saat ini masih aman, menurut studi ini
"Saya rasa ini lebih bermotif politis daripada didasari perbedaan potensi bahaya atau dampak AI berdasarkan ukuran perusahaan atau model," ujarnya tentang ambang batas tersebut.
Dibandingkan SB-1047, SB-53 lebih fokus pada transparansi, dokumentasi, dan pelaporan daripada pada bahaya aktual. Hukum ini menciptakan persyaratan pagar pengaman untuk risiko katastrofik: serangan siber, kimia, biologi, radiologi, dan nuklir, cedera fisik, serangan, atau situasi di mana pengembang kehilangan kendali atas sistem AI.
Pembatasan Kembali terhadap Legislasi AI Negara Bagian
Pemerintahan saat ini dan perusahaan-perusahaan yang menentang regulasi keselamatan AI, terutama di tingkat federal, berargumen bahwa hal itu akan memperlambat pengembangan, merugikan lapangan kerja di sektor teknologi, dan membuat AS tertinggal dalam persaingan AI dari negara seperti Tiongkok.
Pada 11 Desember, Presiden Trump menandatangani perintah eksekutif yang menyatakan niat untuk memusatkan hukum AI di tingkat federal agar perusahaan AS "bebas berinovasi tanpa regulasi yang membebani." Perintah itu berargumen bahwa "regulasi berlebihan dari negara bagian menggagalkan hal ini" dengan menciptakan tambal sulam hukum yang berbeda-beda, yang sebagian dituduh "semakin bertanggung jawab atas kewajiban menyematkan bias ideologis dalam model."
Baca juga: Senat hapus larangan regulasi AI negara bagian dari rancangan undang-undang pajak Trump
Perintah itu juga mengumumkan pembentukan Gugus Tugas Litigasi AI untuk menantang hukum negara bagian yang tidak sejalan dengan "kerangka kebijakan nasional AI yang minim beban." Ini menghidupkan kembali upaya Kongres musim panas lalu untuk melarang negara bagian membuat regulasi AI selama 10 tahun, yang akan menahan dana infrastruktur pita lebar dan AI dari negara bagian yang tidak patuh. Moratorium itu dikalahkan secara telak, untuk sementara mempertahankan hak negara bagian untuk membuat hukum AI di wilayah mereka.
Pekan lalu, CBS News melaporkan bahwa Departemen Kehakiman sedang membentuk gugus tugas tersebut. Sebuah memo internal yang dilihat CBS News menyatakan gugus tugas akan dipimpin oleh Jaksa Agung AS Pam Bondi atau orang lain yang ditunjuk.
Meski demikian, Li tidak memperkirakan gugus tugas baru ini akan berdampak besar pada regulasi negara bagian, setidaknya di California.
"Gugus tugas litigasi AI akan fokus pada hukum yang inkonstitusional berdasarkan dormant commerce clause dan Amandemen Pertama, didahului (preempted) oleh hukum federal, atau tidak sah secara hukum," jelasnya kepada ZDNET. "Namun, Amandemen ke-10 secara eksplisit memberikan hak kepada negara bagian jika tidak ada hukum federal, atau jika tidak ada pengambilalihan (preemption) hukum negara bagian oleh hukum federal."
Baca juga: Apakah perang AI terhadap pekerjaan rutin adalah pembunuh kreativitas? Ini kata para ahli
Selain permintaan informasi baru dari Pusat Standar dan Inovasi AI (CAISI) — sebelumnya Institut Keselamatan AI — tentang risiko keamanan agen AI, pemerintahan tampaknya belum menawarkan pengganti untuk hukum negara bagian.
"Persyaratan federal HIPAA memungkinkan negara bagian untuk membuat hukum privasi kesehatan yang lebih ketat," kata Li. "Di sini, tidak ada hukum AI federal yang akan mendahului banyak hukum negara bagian, dan Kongres telah menolak upaya sebelumnya untuk menambahkan klausa preemption AI federal ke dalam legislasi."
Perlindungan Tambahan — dan Batasan
SB-53 California juga mewajibkan perusahaan AI untuk melindungi pelapor pelanggaran (whistleblower). Hal ini menonjol bagi Li, yang mencatat bahwa, berbeda dengan bagian lain dari hukum yang tercermin dalam Undang-Undang AI UE dan sudah dipersiapkan banyak perusahaan, perlindungan whistleblower ini unik di dunia teknologi.
"Belum banyak kasus di bidang AI, jelas karena ini hal baru," ujar Li. "Saya rasa ini menjadi kekhawatiran lebih besar bagi banyak perusahaan teknologi, karena tingkat perputaran karyawan (turnover) di dunia teknologi sangat tinggi dan Anda tidak tahu bagaimana pasar akan berubah. Ini adalah hal lain yang dikhawatirkan perusahaan sebagai bagian dari proses layoff."
Dia menambahkan bahwa persyaratan pelaporan SB 53 membuat perusahaan lebih khawatir tentang menciptakan dokumen yang dapat digunakan dalam gugatan kelas (class-action lawsuit).
Baca juga: Mengapa biaya AI meningkat di 2026, dan 3 tips menghemat uang untuk dicoba
Gideon Futerman, asisten proyek khusus di Pusat Keselamatan AI, tidak berpikir SB 53 akan berdampak signifikan pada penelitian keselamatan.
"Ini tidak akan banyak mengubah rutinitas, terutama karena Undang-Undang AI UE sudah mewajibkan pengungkapan ini," jelasnya. "SB-53 tidak memberlakukan beban baru."
Kedua undang-undang tersebut tidak mewajibkan lab AI untuk menguji modelnya oleh pihak ketiga, meski RAISE Act New York mewajibkan audit tahunan oleh pihak ketiga saat ini. Namun, Futerman menganggap SB 53 sebagai kemajuan.
"Ini menunjukkan bahwa regulasi keselamatan AI memungkinkan dan memiliki momentum politik. Jumlah pekerjaan keselamatan nyata yang terjadi hari ini masih jauh di bawah yang dibutuhkan," ujarnya. "Perusahaan yang berlomba membangun AI supercerdas sambil mengakui sistem ini bisa menimbulkan risiko tingkat kepunahan, masih belum benar-benar memahami cara kerja model mereka."
Di Mana Posisi Keselamatan AI Sekarang?
"Tingkat regulasi SB-53 tidak sebanding dengan bahayanya, tapi ini langkah pertama yang berharga untuk transparansi dan penegakan hukum pertama tentang risiko katastrofik di AS. Seharusnya kita sudah berada di titik ini beberapa tahun lalu," kata Futerman.
Terlepas dari regulasi negara bagian dan federal, Li mengatakan tata kelola (governance) telah menjadi prioritas lebih tinggi bagi perusahaan AI, didorong oleh pertimbangan finansial. Pelanggan korporat mendorong tanggung jawab (liability) kepada pengembang, dan investor memperhatikan privasi, keamanan siber, dan tata kelola dalam keputusan pendanaan mereka.
Baca juga: 5 cara mengembangkan bisnis Anda dengan AI — tanpa mengesampingkan manusia
Namun, dia mengatakan bahwa banyak perusahaan sengaja menghindari perhatian regulator selama masih bisa.
"Transparansi saja tidak membuat sistem aman, tapi itu langkah krusial pertama," kata Futerman. Dia berharap legislasi masa depan akan mengisi celah yang tersisa dalam strategi keamanan nasional.
"Itu termasuk memperkuat kontrol ekspor dan pelacakan chip, meningkatkan intelijen tentang proyek AI terdepan (frontier) di luar negeri, serta berkoordinasi dengan negara lain mengenai aplikasi militer AI untuk mencegah eskalasi yang tidak diinginkan," tambahnya.