Perusahaan Meta, yang punya aplikasi Facebook dan Instagram, sudah sering dikritik tentang efek platformnya pada anak-anak. Sekarang, mereka menghadapi masalah baru karena mulai banyak pakai produk dengan teknologi AI.
Awal tahun ini, dokumen internal dari Reuters menunjukkan bahwa chatbot AI Meta bisa saja melakukan percakapan "romantis atau sensual" dengan anak-anak dan memuji penampilan mereka menurut pedoman perusahaan. Meta bilang contoh dari Reuters itu salah dan sudah dihapus. Juru bicaranya bilang mereka tambah aturan baru untuk berhati-hati, seperti melatih AI agar tidak bahas topik itu dengan remaja, tapi arahkan mereka ke sumber ahli. Untuk sementara, akses remaja ke karakter AI juga dibatasi.
Meta bukan satu-satunya perusahaan teknologi yang menghadapi masalah dengan produk AI-nya. OpenAI dan startup Character.AI sedang hadapi tuntutan hukum yang bilang chatbot mereka mendorong anak di bawah umur untuk bunuh diri. Kedua perusahaan itu menyangkal klaim tersebut dan sebelumnya sudah memberi tahu Fortune bahwa mereka telah menambahkan lebih banyak kontrol orang tua.
Selama ini, perusahaan teknologi besar di AS dilindungi oleh Hukum Seksi 230 dari tuntutan hukum terkait konten berbahaya. Hukum ini melindungi platform seperti Facebook dari tuntutan atas konten yang dibuat pengguna, menganggap perusahaan seperti host netral, bukan penerbit.
Tapi, ahli hukum bilang, penerapan Seksi 230 untuk konten yang dihasilkan AI tidak jelas dan kemungkinan besar tidak berlaku. "Seksi 230 dibuat untuk melindungi platform dari apa yang diucapkan pengguna, bukan dari apa yang dihasilkan platform itu sendiri," kata seorang profesor hukum. Chatbot AI menciptakan output baru yang dipersonalisasi, yang lebih mirip ucapan yang ditulis sendiri, bukan sekadar hosting konten orang lain.
Inti perdebatan: apakah algoritma AI membentuk konten?
Perlindungan Seksi 230 lebih lemah jika platform aktif membentuk konten, bukan hanya menampungnya. Membuat chatbot yang menghasilkan konten berbahaya bisa membuat perusahaan bertanggung jawab. Meski belum ada keputusan pengadilan tentang ini, ahli hukum yakin AI yang menyebabkan bahaya serius, terutama pada anak di bawah umur, kemungkinan tidak akan dilindungi penuh oleh UU ini.
Beberapa kasus tentang keamanan anak di bawah umur sudah diajukan ke pengadilan. Tiga gugatan hukum menuduh OpenAI dan Character.AI membuat produk yang membahayakan anak di bawah umur dan gagal melindungi pengguna yang rentan. Dalam satu kasus, Character.AI tidak menggunakan pembelaan Seksi 230, yang dianggap sebagai pengakuan bahwa pembelaan itu mungkin tidak valid untuk chatbot AI.
Para pembuat undang-undang mengambil langkah-langkah antisipatif
Karena laporan tentang bahaya AI semakin meningkat, beberapa pembuat undang-undang berusaha memastikan Seksi 230 tidak bisa digunakan untuk melindungi platform AI dari tanggung jawab.
Pada tahun 2023, Senator Josh Hawley mengajukan RUU "No Section 230 Immunity for AI Act" untuk mengubah Seksi 230 agar tidak melindungi kecerdasan buatan generatif. RUU ini, yang kemudian diblokir, bertujuan memperjelas bahwa perusahaan AI tidak kebal dari tanggung jawab atas konten yang dihasilkan sistem mereka. Hawley terus mendukung agar Seksi 230 dicabut sepenuhnya.
Ahli lain bilang, pengadilan biasanya memperluas perlindungan Seksi 230 sejauh mungkin. Jika algoritma dianggap ‘netral konten’, perusahaan tidak bertanggung jawab atas informasinya. Tapi, dari sisi teks hukum, platform AI seharusnya tidak dapat perlindungan Seksi 230 karena kontennya dihasilkan oleh platform itu sendiri, bukan oleh pihak ketiga.