OpenAI dan Anthropic setuju membiarkan Institut Keamanan AI AS menguji model-model tersebut

OpenAI dan Anthropic, dua startup kecerdasan buatan yang paling bernilai, telah setuju untuk membiarkan U.S. AI Safety Institute menguji model-model baru mereka sebelum dirilis ke publik, menyusul kekhawatiran yang meningkat di industri tentang keselamatan dan etika dalam AI.

Institut tersebut, yang berada di bawah Departemen Perdagangan di National Institute of Standards and Technology (NIST), mengatakan dalam rilis pers bahwa mereka akan mendapatkan “akses ke model-model baru utama dari masing-masing perusahaan sebelum dan setelah rilis publik mereka.”

Grup tersebut didirikan setelah pemerintahan Biden-Harris mengeluarkan perintah eksekutif pertama pemerintah AS tentang kecerdasan buatan pada bulan Oktober 2023, yang mengharuskan penilaian keselamatan baru, panduan kesetaraan dan hak-hak sipil serta penelitian tentang dampak kecerdasan buatan pada pasar tenaga kerja.

“Kami senang telah mencapai kesepakatan dengan US AI Safety Institute untuk pengujian sebelum rilis model-model masa depan kami,” tulis CEO OpenAI Sam Altman dalam sebuah posting di X. OpenAI juga mengkonfirmasi kepada CNBC pada hari Kamis bahwa, dalam satu tahun terakhir, perusahaan telah melipatgandakan jumlah pengguna aktif mingguan mereka dari akhir tahun lalu menjadi 200 juta. Axios pertama kali melaporkan tentang jumlah tersebut.

Berita ini datang sehari setelah laporan muncul bahwa OpenAI sedang dalam pembicaraan untuk mengumpulkan putaran pendanaan yang menilai perusahaan tersebut lebih dari $100 miliar. Thrive Capital memimpin putaran tersebut dan akan menginvestasikan $1 miliar, menurut sumber yang mengetahui masalah tersebut dan meminta namanya tidak dipublikasikan karena rincian tersebut bersifat rahasia.

Anthropic, yang didirikan oleh mantan eksekutif penelitian dan karyawan OpenAI, baru-baru ini dinilai sebesar $18,4 miliar. Anthropic memiliki Amazon sebagai investor terkemuka, sementara OpenAI didukung kuat oleh Microsoft.

MEMBACA  SunPower Menghentikan Sewa Solar dan Perjanjian Pembelian Tenaga Listrik

Perjanjian antara pemerintah, OpenAI, dan Anthropic “akan memungkinkan riset kolaboratif tentang bagaimana mengevaluasi kemampuan dan risiko keselamatan, serta metode untuk mengurangi risiko-risiko tersebut,” menurut rilis hari Kamis.

Jason Kwon, chief strategy officer OpenAI, mengatakan kepada CNBC dalam sebuah pernyataan bahwa, “Kami sangat mendukung misi U.S. AI Safety Institute dan berharap untuk bekerja sama untuk memberikan informasi tentang praktik dan standar keselamatan untuk model-model AI.”

Jack Clark, salah satu pendiri Anthropic, mengatakan kerjasama perusahaan mereka dengan U.S. AI Safety Institute memanfaatkan keahlian luas mereka untuk menguji model-model kami secara ketat sebelum penyebaran luas dan “memperkuat kemampuan kami untuk mengidentifikasi dan mengurangi risiko, memajukan pengembangan kecerdasan buatan yang bertanggung jawab.”

Sejumlah pengembang dan peneliti kecerdasan buatan telah menyatakan kekhawatiran tentang keselamatan dan etika dalam industri kecerdasan buatan yang semakin menguntungkan. Karyawan OpenAI yang sekarang dan yang sudah tidak bekerja di sana menerbitkan surat terbuka pada 4 Juni, menggambarkan masalah potensial dengan kemajuan cepat yang terjadi dalam kecerdasan buatan dan kurangnya pengawasan serta perlindungan bagi whistleblower.

“Perusahaan kecerdasan buatan memiliki insentif finansial yang kuat untuk menghindari pengawasan yang efektif, dan kami tidak percaya bahwa struktur tata kelola korporasi yang dibuat khusus cukup untuk mengubah ini,” tulis mereka. Perusahaan kecerdasan buatan, tambah mereka, “saat ini hanya memiliki kewajiban yang lemah untuk berbagi beberapa informasi ini dengan pemerintah, dan tidak ada dengan masyarakat sipil,” dan mereka tidak dapat “diandalkan untuk membagikannya secara sukarela.”

Beberapa hari setelah surat tersebut diterbitkan, sumber yang akrab dengan masalah tersebut mengonfirmasi kepada CNBC bahwa FTC dan Departemen Kehakiman akan membuka penyelidikan persaingan kepada OpenAI, Microsoft, dan Nvidia. Ketua FTC Lina Khan telah menggambarkan tindakan lembaganya sebagai “penyelidikan pasar tentang investasi dan kemitraan yang terbentuk antara pengembang kecerdasan buatan dan penyedia layanan cloud utama.”

MEMBACA  Tim Dukungan Polisi UAE Membantu dalam Menjamin Keamanan Olimpiade Paris 2024

Pada hari Rabu, anggota dewan California menyetujui undang-undang kecerdasan buatan yang kontroversial, mengirimkannya ke meja Gubernur Gavin Newsom. Newsom, seorang Demokrat, akan memutuskan untuk menolak atau menandatangani undang-undang tersebut menjadi hukum pada tanggal 30 September. Undang-undang tersebut, yang akan membuat pengujian keselamatan dan perlindungan lainnya wajib bagi model-model AI dengan biaya atau daya komputasi tertentu, telah diprotes oleh beberapa perusahaan teknologi karena potensi melambatnya inovasi.

TONTON: Google, OpenAI, dan lainnya menentang undang-undang kecerdasan buatan California