Zahra Bahrololoumi, CEO U.K. dan Irlandia di Salesforce, berbicara selama konferensi tahunan perusahaan Dreamforce di San Francisco, California, pada 17 September 2024.
David Paul Morris | Bloomberg | Getty Images
LONDON — CEO Salesforce di Inggris ingin pemerintah bekerja sama dalam mengatur kecerdasan buatan — namun mengatakan penting bagi pembuat kebijakan untuk tidak menyalahkan semua perusahaan teknologi yang mengembangkan sistem AI dengan cara yang sama.
Berbicara dengan CNBC di London, Zahra Bahrololoumi, CEO U.K. dan Irlandia di Salesforce, mengatakan perusahaan perangkat lunak enterprise asal Amerika Serikat tersebut menganggap serius semua peraturan yang ada. Namun, dia menambahkan bahwa setiap proposal dari Inggris yang bertujuan mengatur AI harus “proporsional dan sesuai dengan kebutuhan.”
Bahrololoumi mencatat bahwa ada perbedaan antara perusahaan yang mengembangkan alat AI yang bersifat konsumen — seperti OpenAI — dan perusahaan seperti Salesforce yang membuat sistem AI enterprise. Dia mengatakan sistem AI yang berhadapan langsung dengan konsumen, seperti ChatGPT, menghadapi lebih sedikit pembatasan daripada produk-produk kelas enterprise, yang harus memenuhi standar privasi yang lebih tinggi dan mematuhi pedoman perusahaan.
“Kami mencari legislasi yang terarah, proporsional, dan sesuai kebutuhan,” kata Bahrololoumi kepada CNBC pada hari Rabu.
“Terdapat perbedaan antara organisasi yang beroperasi dengan teknologi berbasis konsumen dan teknologi konsumen, dan mereka yang bergerak di bidang enterprise tech. Dan kami masing-masing memiliki peran yang berbeda dalam ekosistem, [tapi] kami adalah organisasi B2B,” katanya.
Juru bicara Departemen Sains, Inovasi, dan Teknologi (DSIT) Inggris mengatakan bahwa aturan AI yang direncanakan akan “ditargetkan pada segelintir perusahaan yang mengembangkan model-model AI paling kuat,” daripada menerapkan “aturan umum tentang penggunaan AI.”
Itu menunjukkan bahwa aturan mungkin tidak berlaku untuk perusahaan seperti Salesforce, yang tidak membuat model-model dasar mereka sendiri seperti OpenAI.
“Kami mengakui kekuatan AI untuk memulai pertumbuhan dan meningkatkan produktivitas dan sangat berkomitmen untuk mendukung pengembangan sektor AI kami, terutama saat kami mempercepat adopsi teknologi di seluruh ekonomi kami,” tambah juru bicara DSIT.
Keamanan Data
Salesforce telah sangat mempromosikan etika dan pertimbangan keamanan yang tertanam dalam platform teknologi AI mereka, Agentforce, yang memungkinkan organisasi enterprise untuk menciptakan “agen” AI mereka sendiri — pada dasarnya, pekerja digital otonom yang menjalankan tugas-tugas untuk berbagai fungsi, seperti penjualan, layanan, atau pemasaran.
Sebagai contoh, fitur bernama “zero retention” berarti tidak ada data pelanggan yang dapat disimpan di luar Salesforce. Akibatnya, input dan output AI generatif tidak disimpan dalam model bahasa besar Salesforce — program-program yang menjadi dasar dari chatbot genAI saat ini, seperti ChatGPT.
Dengan chatbot AI konsumen seperti ChatGPT, Claude dari Anthropic, atau asisten AI Meta, tidak jelas data apa yang digunakan untuk melatih mereka atau di mana data tersebut disimpan, menurut Bahrololoumi.
“Untuk melatih model-model ini, Anda memerlukan begitu banyak data,” katanya kepada CNBC. “Dan jadi, dengan sesuatu seperti ChatGPT dan model-model konsumen ini, Anda tidak tahu apa yang digunakannya.”
Bahkan Microsoft Copilot, yang dipasarkan kepada pelanggan enterprise, datang dengan risiko yang lebih tinggi, kata Bahrololoumi, mengutip laporan Gartner yang menyoroti asisten pribadi AI dari raksasa teknologi tersebut atas risiko keamanan yang ditimbulkannya bagi organisasi.
OpenAI dan Microsoft tidak segera memberikan komentar ketika dihubungi oleh CNBC.
Kekhawatiran AI \’berlaku di semua level\’
Bola Rotibi, kepala riset enterprise di firma analis CCS Insight, mengatakan kepada CNBC bahwa, sementara penyedia AI yang difokuskan pada perusahaan “lebih sadar akan persyaratan tingkat enterprise” seputar keamanan dan privasi data, akan salah untuk mengasumsikan bahwa regulasi tidak akan mengawasi perusahaan yang berorientasi pada konsumen dan bisnis.
“Semua kekhawatiran seputar hal-hal seperti persetujuan, privasi, transparansi, kedaulatan data berlaku di semua level, tidak peduli apakah itu konsumen atau perusahaan karena detail-detail tersebut diatur oleh regulasi seperti GDPR,” kata Rotibi kepada CNBC melalui email. GDPR, atau Peraturan Perlindungan Data Umum, menjadi hukum di Inggris pada tahun 2018.
Namun, Rotibi mengatakan bahwa regulator mungkin merasa “lebih percaya diri” dalam langkah-langkah kepatuhan AI yang diadopsi oleh penyedia aplikasi enterprise seperti Salesforce, “karena mereka memahami apa artinya memberikan solusi dan dukungan manajemen tingkat enterprise.”
“Proses review yang lebih nuansa mungkin akan dilakukan untuk layanan AI dari penyedia solusi enterprise yang banyak digunakan seperti Salesforce,” tambahnya.
Bahrololoumi berbicara kepada CNBC di Acara Tur Dunia Agentforce Salesforce di London, sebuah acara yang dirancang untuk mempromosikan penggunaan teknologi AI “agentic” baru perusahaan oleh mitra dan pelanggan.
Ucapannya datang setelah Partai Buruh PM Inggris Keir Starmer menahan diri untuk memperkenalkan RUU AI dalam Pidato Raja, yang ditulis oleh pemerintah untuk menjabarkan prioritasnya dalam beberapa bulan mendatang. Pemerintah saat itu mengatakan berencana untuk menetapkan “peraturan yang sesuai” untuk AI, tanpa menawarkan rincian lebih lanjut.