Undang-Undang Baru di California Wajibkan Chatbot Pendamping untuk Menyuruh Anak Istirahat

Gubernur Gavin Newsom menandatangani undang-undang baru pada hari Senin yang mewajibkan chatbot pendamping AI di California untuk mengingatkan para pengguna bahwa mereka bukanlah manusia.

Undang-undang yang bernama SB 243 ini juga mewajibkan perusahaan-perusahaan chatbot pendamping untuk menjaga protokol guna mengidentifikasi dan menangani kasus di mana pengguna menunjukkan ideasi bunuh diri atau niat melukai diri sendiri. Bagi pengguna di bawah usia 18 tahun, chatbot harus memberikan notifikasi setidaknya setiap tiga jam sekali yang mengingatkan pengguna untuk beristirahat sejenak dan bahwa bot tersebut bukanlah manusia.

Ini adalah salah satu dari beberapa RUU yang telah ditandatangani Newsom dalam beberapa pekan terakhir yang berhubungan dengan media sosial, kecerdasan buatan, dan isu-isu teknologi konsumen lainnya. RUU lain yang ditandatangani pada hari Senin, AB 56, mewajibkan label peringatan pada platform media sosial, serupa dengan yang diharuskan untuk produk tembakau. Pekan lalu, Newsom menandatangani langkah-langkah yang mewajibkan peramban internet untuk memudahkan masyarakat memberi tahu situs web bahwa mereka tidak menginginkan data pribadinya dijual dan melarang iklan dengan suara keras pada platform *streaming*.

Chatbot pendamping AI telah mendapatkan perhatian khusus dari para pembuat undang-undang dan regulator dalam beberapa bulan terakhir. Komisi Perdagangan Federal meluncurkan penyelidikan terhadap beberapa perusahaan sebagai tanggapan atas keluhan dari kelompok konsumen dan orang tua yang menyatakan bahwa bot-bot tersebut membahayakan kesehatan mental anak-anak. OpenAI memperkenalkan kontrol orang tua baru dan pengaman lainnya dalam platform ChatGPT-nya yang populer setelah perusahaan digugat oleh orang tua yang menduga ChatGPT berkontribusi pada bunuh diri anak remaja mereka.

“Kami telah menyaksikan beberapa contoh yang benar-benar mengerikan dan tragis tentang anak muda yang dirugikan oleh teknologi yang tidak diatur, dan kami tidak akan berdiam diri sementara perusahaan terus beroperasi tanpa batasan dan akuntabilitas yang diperlukan,” ujar Newsom dalam sebuah pernyataan.

MEMBACA  Unduh iOS 18.3.2 Sekarang Juga untuk Memperbaiki Masalah Keamanan Ini

Jangan lewatkan konten teknologi yang tidak memihak dan ulasan berbasis lab kami. Tambahkan CNET sebagai sumber pilihan di Google.


Salah satu pengembang pendamping AI, Replika, menyatakan kepada CNET bahwa mereka telah memiliki protokol untuk mendeteksi niat melukai diri sendiri sebagaimana diwajibkan oleh undang-undang baru tersebut, dan bahwa mereka sedang bekerja sama dengan regulator dan pihak lain untuk mematuhi persyaratan dan melindungi konsumen.

“Sebagai salah satu pelopor dalam bidang pendampingan AI, kami menyadari tanggung jawab besar kami untuk memimpin dalam hal keselamatan,” kata Minju Song dari Replika dalam pernyataan melalui email. Song mengatakan Replika menggunakan sistem penyaringan konten, pedoman komunitas, dan sistem keamanan yang merujuk pengguna ke sumber daya krisis bila diperlukan.

Baca selengkapnya: Menggunakan AI sebagai Terapis? Inilah Alasan Para Profesional Menyarankan Anda untuk Berpikir Ulang

Juru bicara Character.ai menyatakan bahwa perusahaan tersebut “menyambut baik kerja sama dengan regulator dan pembuat undang-undang seiring mereka menyusun regulasi dan undang-undang untuk ruang emerging ini, dan akan mematuhi hukum, termasuk SB 243.” Juru bicara OpenAI, Jamie Radice, menyebut RUU ini sebagai sebuah “langkah maju yang bermakna” untuk keselamatan AI. “Dengan menetapkan pengaman yang jelas, California ikut membentuk pendekatan yang lebih bertanggung jawab terhadap pengembangan dan penerapan AI di seluruh negeri,” kata Radice dalam sebuah email.

Satu RUU yang belum ditandatangani Newsom, AB 1064, akan melangkah lebih jauh dengan melarang pengembang membuat chatbot pendamping tersedia bagi anak-anak kecuali pendamping AI tersebut “tidak dapat diprediksi kemampuannya untuk” mendorong aktivitas berbahaya atau terlibat dalam interaksi eksplisit seksual, di antara hal-hal lainnya.