OpenAI memberikan dukungannya terhadap rancangan undang-undang di negara bagian Illinois yang akan melindungi laboratorium AI dari tuntutan hukum dalam kasus di mana model AI digunakan untuk menimbulkan bahaya sosial serius, seperti kematian atau cedera parah pada 100 orang atau lebih atau kerusakan properti minimal $1 miliar.
Upaya ini menandai pergeseran dalam strategi legislatif OpenAI. Selama ini, OpenAI lebih banyak bersikap defensif, menentang RUU yang dapat membuat lab AI bertanggung jawab atas dampak buruk teknologinya. Beberapa ahli kebijakan AI menyatakan kepada WIRED bahwa SB 3444—yang dapat menetapkan standar baru bagi industri—merupakan langkah yang lebih ekstrem dibandingkan RUU yang didukung OpenAI sebelumnya.
RUU ini akan melindungi pengembang AI frontier dari liabilitas untuk “bahaya kritis” yang disebabkan oleh model frontier mereka, selama mereka tidak dengan sengaja atau ceroboh menyebabkan insiden tersebut, dan telah memublikasikan laporan keamanan, keselamatan, dan transparansi di situs web mereka. Ia mendefinisikan model frontier sebagai model AI mana pun yang dilatih dengan biaya komputasi lebih dari $100 juta, yang kemungkinan besar berlaku untuk lab AI terbesar di Amerika, seperti OpenAI, Google, xAI, Anthropic, dan Meta.
“Kami mendukung pendekatan seperti ini karena fokus pada hal yang paling penting: Mengurangi risiko bahaya serius dari sistem AI paling maju sambil tetap memungkinkan teknologi ini sampai ke tangan masyarakat dan bisnis—kecil maupun besar—di Illinois,” ujar juru bicara OpenAI, Jamie Radice, dalam pernyataan tertulis. “Mereka juga membantu menghindari aturan yang tidak konsisten di tiap negara bagian dan bergerak menuju standar nasional yang lebih jelas dan konsisten.”
Dalam definisi bahaya kritis, RUU ini mencantumkan beberapa area perhatian umum bagi industri AI, seperti pelaku jahat yang menggunakan AI untuk menciptakan senjata kimia, biologis, radiologis, atau nuklir. Jika sebuah model AI melakukan tindakan sendiri yang, jika dilakukan manusia, akan merupakan tindak pidana dan mengakibatkan konsekuensi ekstrem tersebut, itu juga akan dianggap bahaya kritis. Jika model AI melakukan salah satu tindakan ini di bawah SB 3444, lab AI di balik model tersebut mungkin tidak akan dituntut, asalkan tidak disengaja dan mereka telah memublikasikan laporannya.
Lembaga legislatif federal dan negara bagian di AS belum mengesahkan hukum apa pun yang secara khusus menentukan apakah pengembang model AI, seperti OpenAI, dapat dimintai pertanggungjawaban untuk jenis bahaya yang disebabkan oleh teknologi mereka. Namun, seiring lab AI terus merilis model AI yang lebih kuat yang menimbulkan tantangan keamanan dan keamanan siber baru, seperti Claude Mythos milik Anthropic, pertanyaan-pertanyaan ini terasa semakin mendesak.
Dalam kesaksiannya mendukung SB 3444, anggota tim Urusan Global OpenAI, Caitlin Niedermeyer, juga berargumen mendukung kerangka kerja federal untuk regulasi AI. Niedermeyer menyampaikan pesan yang selaras dengan tindakan keras pemerintahan Trump terhadap undang-undang keamanan AI tingkat negara bagian, dengan klaim bahwa penting untuk menghindari “sekumpulan persyaratan negara bagian yang tidak konsisten yang dapat menciptakan gesekan tanpa meningkatkan keamanan secara berarti.” Ini juga sejalan dengan pandangan Silicon Valley secara lebih luas dalam beberapa tahun terakhir, yang umumnya berargumen bahwa sangat penting bagi undang-undang AI untuk tidak menghambat posisi Amerika dalam perlombaan AI global. Meskipun SB 3444 sendiri adalah undang-undang keamanan tingkat negara bagian, Niedermeyer berargumen bahwa itu dapat efektif jika “memperkuat jalan menuju harmonisasi dengan sistem federal.”
“Di OpenAI, kami percaya bahwa tujuan utama regulasi frontier haruslah penyebaran model paling maju yang aman dengan cara yang juga mempertahankan kepemimpinan AS dalam inovasi,” kata Niedermeyer.
Scott Wisor, direktur kebijakan untuk proyek Secure AI, mengatakan kepada WIRED bahwa ia yakin RUU ini memiliki peluang kecil untuk disahkan, mengingat reputasi Illinois yang agresif dalam meregulasi teknologi. “Kami melakukan jajak pendapat di Illinois, menanyakan apakah perusahaan AI harus dibebaskan dari liabilitas, dan 90 persen masyarakat menentangnya. Tidak ada alasan perusahaan AI yang ada harus menghadapi liabilitas yang berkurang,” kata Wisor.