Antropik: Menjadi Perusahaan Kecerdasan Buatan yang Bertanggung Jawab di Era Trump

Anthropic, perusahaan kecerdasan buatan di balik chatbot Claude, sedang berusaha mencitrakan diri sebagai “Pahlawan” di dunia AI. Baru-baru ini, sebagai satu-satunya perusahaan AI besar yang mendukung undang-undang keamanan AI di California, perusahaan ini mencuri perhatian media melalui Semafor karena penolakannya untuk mengizinkan modelnya digunakan dalam tugas-tugas pengawasan, yang membuat administrasi Trump geram.

Menurut laporan tersebut, lembaga penegak hukum merasa dibatasi oleh kebijakan penggunaan Anthropic, yang mencakup larangan penggunaan teknologinya untuk “Tujuan Penegakan Hukum Pidana, Sensor, Pengawasan, atau yang Dilarang.” Ini termasuk pelarangan penggunaan alat AI-nya untuk “Membuat keputusan dalam aplikasi peradilan pidana,” “Melacak atau memantau lokasi fisik, keadaan emosional, atau komunikasi seseorang tanpa persetujuan mereka,” dan “Menganalisis atau mengidentifikasi konten tertentu untuk disensor atas nama organisasi pemerintah.”

Hal ini menjadi masalah serius bagi agensi federal, termasuk FBI, Secret Service, dan Imigrasi serta Penegakan Bea Cukai, menurut Semafor, dan menciptakan ketegangan antara perusahaan dan administrasi saat ini, meskipun Anthropic memberikan akses chatbot Claude dan rangkaian alat AI-nya kepada pemerintah federal hanya seharga $1. Menurut laporan, kebijakan Anthropic lebih luas dengan sedikit pengecualian dibandingkan pesaing. Misalnya, kebijakan penggunaan OpenAI membatasi “pemantauan individu tanpa otorisasi,” yang mungkin tidak melarang penggunaan teknologi untuk pemantauan “yang legal.”

OpenAI tidak menanggapi permintaan komentar.

Sumber yang familiar dengan masalah tersebut menjelaskan bahwa Claude Anthropic digunakan oleh agensi untuk tujuan keamanan nasional, termasuk untuk keamanan siber, tetapi kebijakan penggunaan perusahaan membatasi penggunaan yang terkait dengan pengawasan domestik.

Perwakilan Anthropic menyatakan bahwa perusahaan mengembangkan ClaudeGov khusus untuk komunitas intelijen, dan layanan tersebut telah menerima otorisasi “Tinggi” dari Federal Risk and Authorization Management Program (FedRAMP), yang memungkinkan penggunaannya untuk beban kerja pemerintah yang sensitif. Perwakilan itu mengatakan Claude tersedia untuk digunakan di seluruh komunitas intelijen.

MEMBACA  Penawaran Terbaik dari Sam's Club untuk Bersaing dengan Prime Day: TV, Speaker, Laptop, dan Peralatan Elektronik

Seorang pejabat administrasi mengeluh kepada Semafor bahwa kebijakan Anthropic membuat penilaian moral tentang cara kerja lembaga penegak hukum, yang, ya… benar? Tapi ini juga merupakan masalah hukum sebanyak masalah moral. Kita hidup dalam negara pengawasan, penegak hukum dapat dan telah mengawasi orang tanpa surat perintah di masa lalu dan hampir pasti akan terus melakukannya di masa depan.

Sebuah perusahaan memilih untuk tidak berpartisipasi dalam hal itu, sejauh ia dapat menolak, adalah untuk melindungi kepentingannya sendiri sekaligus mengambil sikap etis. Jika pemerintah federal kesal karena kebijakan penggunaan suatu perusahaan mencegahnya melakukan pengawasan domestik, mungkin yang utama adalah bahwa pemerintah melakukan pengawasan domestik secara luas dan berusaha mengotomatiskannya dengan sistem AI.

Bagaimanapun, pendirian berprinsip Anthropic secara teoritis adalah yang terbaru dalam upayanya untuk memposisikan diri sebagai perusahaan AI yang masuk akal. Awal bulan ini, mereka mendukung RUU keamanan AI di California yang akan mengharuskannya dan perusahaan AI besar lainnya tunduk pada persyaratan keselamatan baru dan lebih ketat untuk memastikan model tidak berisiko menimbulkan bahaya katastrofik. Anthropic adalah satu-satunya pemain besar di dunia AI yang mendukung penuh RUU tersebut, yang menunggu tandatangan Gubernur Newsom (yang mungkin atau mungkin tidak datang, karena ia sebelumnya memveto RUU serupa). Perusahaan ini juga berada di D.C., mempromosikan adopsi AI yang cepat dengan pengaman (tetapi dengan penekanan pada bagian yang cepat).

Posisinya sebagai perusahaan AI yang santai mungkin sedikit ternodai oleh fakta bahwa mereka membajak jutaan buku dan makalah yang digunakan untuk melatih model bahasa besarnya, melanggar hak pemegang hak cipta dan meninggalkan para penulis tanpa bayaran. Penyelesaian senilai $1,5 miliar yang dicapai awal bulan ini akan memasukkan setidaknya sebagian uang ke kantong orang-orang yang benar-benar menciptakan karya yang digunakan untuk melatih model tersebut. Sementara itu, Anthropic baru saja dinilai hampir $200 miliar dalam putaran pendanaan terkini yang akan membuat hukuman yang diperintahkan pengadilan itu menjadi angka yang sangat kecil.

MEMBACA  Daftar Fortune 500: Peringkat 10 Perusahaan Teratas