Seorang Eksekutif AI Berubah Menjadi Pejuang AI untuk Mendukung Seniman

Ed Newton-Rex mengatakan bahwa kecerdasan buatan generatif memiliki masalah etika. Dia seharusnya tahu, karena dia pernah menjadi bagian dari industri yang berkembang pesat. Newton-Rex adalah desainer AI utama TikTok dan kemudian menjadi eksekutif di Stability AI sampai dia berhenti dengan jijik pada bulan November karena sikap perusahaan terkait pengumpulan data pelatihan.

Setelah kepergiannya yang mencolok, Newton-Rex terlibat dalam berbagai percakapan tentang bagaimana membangun AI dengan etika dalam praktiknya. “Saya menyadari bahwa banyak orang yang ingin menggunakan model AI generatif yang memperlakukan pencipta secara adil,” katanya. “Jika Anda dapat memberi mereka alat pengambilan keputusan yang lebih baik, itu membantu.”

Organisasi nirlaba Ed Newton-Rex berusaha mendorong perusahaan-perusahaan untuk lebih berhati-hati dalam menyediakan data pelatihan untuk proyek-proyek AI.

Dengan hormat, Ed Newton-Rex

Sekarang, Newton-Rex telah meluncurkan organisasi nirlaba baru, Fairly Trained, untuk memberikan alat pengambilan keputusan seperti itu kepada orang-orang. Organisasi ini menawarkan program sertifikasi untuk mengidentifikasi perusahaan-perusahaan AI yang melisensikan data pelatihannya. Sekarang industri AI memiliki versi sendiri dari label sertifikasi “perdagangan adil” yang Anda lihat pada kopi.

Untuk mendapatkan label sertifikasi Fairly Trained, yang disebut L Certification, sebuah perusahaan harus membuktikan bahwa data pelatihannya telah dilisensikan secara eksplisit untuk tujuan pelatihan, berada dalam domain publik, ditawarkan dengan lisensi terbuka yang sesuai, atau sudah dimiliki oleh perusahaan tersebut.

Sejauh ini, sembilan perusahaan telah menerima sertifikasi tersebut, termasuk pembuat gambar Bria AI, yang hanya melatih menggunakan data yang dilisensikan dari sumber seperti Getty Images, dan platform pembuat musik LifeScore Music, yang melisensikan karya dari semua label rekaman utama. Beberapa perusahaan lain hampir menyelesaikan sertifikasi mereka. Organisasi nirlaba ini mengenakan biaya sebesar $500 hingga $6,000, tergantung pada ukuran bisnis pemohon.

MEMBACA  Pedagang obligasi bersiap-siap untuk 'tanpa mendarat' setelah kejutan pekerjaan

OpenAI – perusahaan generatif AI terkemuka di dunia – baru-baru ini berpendapat bahwa tidak mungkin membuat layanan AI generatif seperti ChatGPT tanpa menggunakan data yang tidak dilisensikan. Newton-Rex dan perusahaan-perusahaan pertama yang mendapatkan cap persetujuan dari Fairly Certified tidak setuju. “Kami sudah menganggapnya sebagai hal wajib dilakukan,” kata CEO Bria, Yair Adato, tentang lisensi data. Dia membandingkan model AI yang dibangun dengan data yang tidak dilisensikan dengan Napster dan Pirate Bay, dan perusahaannya sendiri dengan Spotify. “Bagi kami, menjadi patuh sangat mudah,” kata Tom Gruber, salah satu pendiri Lifescore Music, yang juga menjadi penasihat di Fairly Certified. “Industri musik benar-benar peduli tentang asal usul dan hak cipta.”

Newton-Rex mengatakan bahwa ia mendapat dukungan dari kelompok perdagangan seperti Association of American Publishers dan Association of Independent Music Publishers, serta perusahaan seperti Universal Music Group. Namun, gerakan untuk mengubah pendekatan standar industri AI dalam pengumpulan data pelatihan masih sangat awal. Dan Fairly Trained adalah operasi satu orang. Bukan itu masalah bagi Newton-Rex; dia masih memiliki mentalitas pendiri startup. “Saya percaya dalam mengirimkan hal-hal secara cepat,” katanya.

Organisasi nirlaba ini juga bukan satu-satunya yang mencoba untuk mengatur standar label produk AI dengan informasi tentang bahan-bahannya. Howie Singer, mantan eksekutif Warner Music Group yang sekarang mempelajari bagaimana teknologi mengubah industri musik, melihat kesamaan antara Fairly Trained dan Content Authority Initiative, sebuah proyek yang dipimpin oleh Adobe untuk membantu orang melacak keaslian gambar. “Ini adalah langkah yang bagus,” katanya tentang proyek Newton-Rex.