Inilah artinya bagi perusahaan teknologi AS

Undang-undang kecerdasan buatan landmark Uni Eropa secara resmi mulai berlaku Kamis – dan itu berarti perubahan keras bagi raksasa teknologi Amerika.

AI Act, aturan bersejarah yang bertujuan untuk mengatur cara perusahaan mengembangkan, menggunakan dan menerapkan AI, mendapat persetujuan final dari negara-negara anggota UE, pembuat undang-undang, dan Komisi Eropa – badan eksekutif UE – pada bulan Mei.

CNBC telah menjelaskan semua yang perlu Anda ketahui tentang AI Act – dan bagaimana hal itu akan memengaruhi perusahaan teknologi global terbesar.

Apa itu AI Act?

AI Act adalah sebuah undang-undang UE yang mengatur kecerdasan buatan. Pertama kali diusulkan oleh Komisi Eropa pada tahun 2020, undang-undang ini bertujuan untuk mengatasi dampak negatif AI.

Ini akan terutama menargetkan perusahaan teknologi besar AS, yang saat ini merupakan pembangun dan pengembang utama sistem AI paling canggih.

Namun, banyak bisnis lain akan masuk dalam lingkup aturan tersebut – bahkan perusahaan non-teknologi.

Regulasi ini menetapkan kerangka regulasi yang komprehensif dan seragam untuk AI di seluruh UE, menerapkan pendekatan berbasis risiko dalam mengatur teknologi tersebut.

Tanguy Van Overstraeten, kepala praktik teknologi, media dan teknologi firma hukum Linklaters di Brussels, mengatakan AI Act UE adalah “yang pertama di dunia.”

“Ini kemungkinan akan berdampak pada banyak bisnis, terutama yang mengembangkan sistem AI tetapi juga yang menerapkan atau hanya menggunakan mereka dalam beberapa keadaan,” tambahnya.

Undang-undang ini menerapkan pendekatan berbasis risiko dalam mengatur AI yang berarti bahwa aplikasi berbeda dari teknologi tersebut diatur dengan cara yang berbeda tergantung pada tingkat risiko yang mereka timbulkan bagi masyarakat.

Untuk sistem AI yang dianggap “berisiko tinggi,” misalnya, kewajiban yang ketat akan diperkenalkan di bawah AI Act. Kewajiban-kewajiban tersebut termasuk sistem penilaian risiko dan mitigasi yang memadai, set data pelatihan berkualitas tinggi untuk meminimalkan risiko bias, pencatatan rutin aktivitas, dan berbagi dokumentasi rinci tentang model dengan otoritas untuk menilai kepatuhan.

MEMBACA  Elite kota mendesak Reeves untuk mengatasi 'krisis yang akan datang' bagi pensiunan Inggris.

Contoh sistem AI berisiko tinggi termasuk kendaraan otonom, perangkat medis, sistem pengambilan keputusan pinjaman, penilaian pendidikan, dan sistem identifikasi biometrik jarak jauh.

Undang-undang juga memberlakukan larangan umum terhadap aplikasi AI yang dianggap “tidak dapat diterima” dalam hal tingkat risikonya.

Aplikasi AI risiko tidak dapat diterima termasuk sistem “penilaian sosial” yang mengklasifikasikan warga berdasarkan agregasi dan analisis data mereka, prediksi kepolisian, dan penggunaan teknologi pengenalan emosi di tempat kerja atau sekolah.

Apa artinya bagi perusahaan teknologi AS?

Raksasa AS seperti Microsoft, Google, Amazon, Apple, dan Meta telah secara agresif bermitra dan menginvestasikan miliaran dolar ke perusahaan yang mereka anggap dapat memimpin dalam kecerdasan buatan di tengah kegilaan global seputar teknologi tersebut.

Platform cloud seperti Microsoft Azure, Amazon Web Services dan Google Cloud juga kunci untuk mendukung pengembangan AI, mengingat infrastruktur komputasi yang sangat besar diperlukan untuk melatih dan menjalankan model AI.

Dalam hal ini, perusahaan Big Tech tanpa keraguan akan menjadi nama-nama yang paling banyak ditargetkan di bawah aturan baru ini.

“AI Act memiliki implikasi yang jauh melampaui UE. Ini berlaku untuk setiap organisasi dengan operasi atau dampak apa pun di UE, yang berarti AI Act kemungkinan besar akan berlaku untuk Anda tidak peduli di mana Anda berada,” kata Charlie Thompson, wakil presiden senior EMEA dan LATAM untuk perusahaan perangkat lunak enterprise Appian, kepada CNBC melalui email.

“Ini akan membawa lebih banyak pengawasan pada raksasa teknologi ketika datang ke operasi mereka di pasar UE dan penggunaan data warga UE,” tambah Thompson

Meta telah membatasi ketersediaan model AI-nya di Eropa karena kekhawatiran regulasi – meskipun langkah ini bukan karena AI Act UE.

MEMBACA  Bagaimana pajak tinggi dan pertumbuhan rendah telah menyulitkan pendapatan teratas di Britania Raya

Pemilik Facebook sebelumnya bulan ini mengatakan tidak akan membuat model LLaMa-nya tersedia di UE, dengan alasan ketidakpastian apakah itu mematuhi Peraturan Perlindungan Data Umum UE, atau GDPR.

Perusahaan sebelumnya diperintahkan untuk menghentikan pelatihan modelnya pada postingan dari Facebook dan Instagram di UE karena kekhawatiran itu mungkin melanggar GDPR.

Bagaimana generative AI diperlakukan?

Generative AI diklasifikasikan dalam AI Act UE sebagai contoh kecerdasan buatan “umum.”

Label ini merujuk pada alat yang dimaksudkan untuk dapat menyelesaikan berbagai tugas dalam tingkat yang sama – jika tidak lebih baik dari – manusia.

Model AI umum termasuk, tetapi tidak terbatas pada, GPT OpenAI, Gemini Google, dan Claude Anthropic.

Untuk sistem ini, AI Act memberlakukan persyaratan ketat seperti menghormati hukum hak cipta UE, menerbitkan pengungkapan transparansi tentang bagaimana model dilatih, dan melakukan pengujian rutin dan perlindungan keamanan siber yang memadai.

Tidak semua model AI diperlakukan sama. Pengembang AI telah mengatakan UE perlu memastikan model open-source – yang gratis untuk publik dan dapat digunakan untuk membangun aplikasi AI yang disesuaikan – tidak diatur terlalu ketat.

Contoh model open-source termasuk LLaMa Meta, Stable Diffusion Stability AI, dan 7B Mistral.

UE menetapkan beberapa pengecualian untuk model generative AI open-source.

Namun, untuk memenuhi syarat untuk pengecualian dari aturan, penyedia open-source harus membuat parameter mereka, termasuk bobot, arsitektur model, dan penggunaan model, tersedia secara publik, dan memungkinkan “akses, penggunaan, modifikasi, dan distribusi model.”

Model open-source yang menghadapi risiko “sistemik” tidak akan dikecualikan, menurut AI Act.

Perlu “mempertimbangkan dengan hati-hati kapan aturan dipicu dan peran pemangku kepentingan yang terlibat,” kata dia [siapa yang mengatakan ini?]

MEMBACA  Pemilihan Umum — Harapan bagi Demokrasi dan Tata Kelola yang Baik

Apa yang terjadi jika perusahaan melanggar aturan?

Perusahaan yang melanggar AI Act UE dapat dikenai denda antara 35 juta euro ($41 juta) atau 7% dari pendapatan global tahunan mereka – mana pun jumlah yang lebih tinggi – hingga 7,5 juta atau 1,5% dari pendapatan global tahunan.

Besarnya denda akan bergantung pada pelanggaran dan ukuran perusahaan yang didenda.

Itu lebih tinggi dari denda yang mungkin di bawah GDPR, undang-undang privasi digital ketat Eropa. Perusahaan menghadapi denda hingga 20 juta euro atau 4% dari omset global tahunan untuk pelanggaran GDPR.

Pengawasan semua model AI yang masuk dalam lingkup Undang-Undang – termasuk sistem AI umum – akan jatuh di bawah European AI Office, badan regulasi yang didirikan oleh Komisi pada Februari 2024.

Jamil Jiva, kepala global manajemen aset di perusahaan fintech Linedata, mengatakan kepada CNBC UE “memahami bahwa mereka perlu memberikan denda yang signifikan kepada perusahaan yang melanggar jika mereka ingin regulasi memiliki dampak.”

Serupa dengan bagaimana GDPR menunjukkan cara UE dapat “menggandeng pengaruh regulasi mereka untuk mewajibkan praktik privasi data terbaik” secara global, dengan AI Act, blok ini mencoba lagi untuk mereplikasi hal ini, tetapi untuk AI, tambah Jiva.

Namun, perlu dicatat bahwa meskipun AI Act akhirnya mulai berlaku, sebagian besar ketentuan dalam undang-undang tersebut sebenarnya tidak akan mulai berlaku hingga setidaknya 2026.

Pembatasan pada sistem umum tidak akan dimulai hingga 12 bulan setelah berlakunya AI Act.

Sistem AI generatif yang saat ini tersedia secara komersial – seperti ChatGPT OpenAI dan Gemini Google – juga diberikan “periode transisi” 36 bulan untuk membuat sistem mereka mematuhi.