OpenAI Rebut Kontrak Pentagon Usai Kompetitor Dinilai Berisiko

OpenAI mengumumkan pada Jumat malam bahwa mereka telah mencapai kesepakatan agar Pentagon bisa pakai model AI mereka dalam sistem rahasia. Ini terjadi hanya beberapa jam setelah pemerintah AS menetapkan saingan utama OpenAI, Anthropic, sebagai "risiko rantai pasokan". Keputusan ini bisa memberikan pukulan berat untuk bisnis Anthropic.

Para ahli hukum dan kebijakan bilang, keputusan pemerintah yang belum pernah terjadi ini memunculkan pertanyaan besar tentang hubungan antara pemerintah dan bisnis di AS. Ini pertama kalinya AS menetapkan perusahaan Amerika sebagai risiko rantai pasokan, dan pertama kalinya penetapan ini dipakai sebagai balasan karena sebuah bisnis tidak setuju pada syarat-syarat kontrak tertentu. Anthropic mengatakan dalam pernyataan Jumat bahwa mereka akan mengambil tindakan hukum untuk mencoba membatalkan penetapan dari Pentagon.

Dalam pernyataan yang mengumumkan kesepakatan mereka, CEO OpenAI Sam Altman mengatakan bahwa perjanjian mereka dengan Pentagon memiliki dua batasan yang sama tentang bagaimana militer dapat menggunakan teknologi mereka. Batasan ini sebelumnya diinsistensikan oleh Anthropic dan pemerintah mengatakan tidak bisa menerimanya.

Tapi OpenAI kelihatannya memasukkan batasan ini ke dalam perjanjian dengan cara yang berbeda dari Anthropic. Kalau Anthropic berusaha mencantumkan batasan itu secara jelas dalam kontrak, OpenAI setuju bahwa Pentagon bisa menggunakan teknologinya untuk “tujuan apa pun yang sah,” sementara Altman juga berkata tentang batasan-batasan bahwa OpenAI “memasukkannya ke dalam perjanjian kami.”

Tidak jelas bagaimana kedua hal ini bisa benar atau bagaimana batasan-batasan itu dinyatakan dalam perjanjian. Tapi mungkin saja bahasa kontraknya menunjukkan bahwa hukum AS saat ini melarang Pentagon menggunakan AI untuk pengawasan massal warga Amerika dan kebijakan militer AS saat ini menyatakan bahwa manusia harus mempertahankan “tingkat pertimbangan manusia yang sesuai” atas penggunaan kekuatan mematikan.

OpenAI juga mengatakan bahwa Pentagon setuju bahwa perusahaan dapat membangun solusi teknis ke dalam model AI-nya yang dimaksudkan untuk mencegah penggunaannya untuk pengawasan massal warga AS atau digunakan dalam senjata otonom mematikan.

MEMBACA  Agen AI sedang datang

“Kami meminta [Departemen Perang] untuk menawarkan syarat yang sama ini ke semua perusahaan AI, yang menurut pendapat kami harusnya semua orang mau menerima,” kata Altman.

Beberapa komentator menafsirkan komentar Altman sebagai kritik terselubung terhadap Anthropic, yang sebelumnya tidak setuju pada syarat-syarat ini dan malah bersikeras pada pembatasan kontrak eksplisit tentang bagaimana modelnya boleh digunakan.

Dalam pernyataan terpisah pada Sabtu siang, OpenAI mengatakan perjanjian mereka memiliki lebih banyak pengaman daripada perjanjian mana pun sebelumnya untuk penggunaan AI rahasia, termasuk milik Anthropic. Selain pengawasan massal dalam negeri dan senjata otonom, kesepakatan ini termasuk garis merah ketiga yang melarang penggunaan teknologi OpenAI untuk “keputusan otomatis berisiko tinggi,” seperti sistem “skor sosial”.

“Dalam perjanjian kami, kami melindungi garis merah kami melalui pendekatan yang lebih luas dan berlapis,” tambah perusahaan itu. “Kami memiliki kewenangan penuh atas tumpukan keamanan kami, kami menyebarkan via cloud, personel OpenAI yang telah disetujui terlibat, dan kami memiliki perlindungan kontrak yang kuat. Ini semua ditambah dengan perlindungan kuat yang sudah ada dalam hukum AS.”

Altman sebelumnya telah secara publik mendukung posisi Anthropic tentang batasan yang mereka cari. Banyak karyawan OpenAI juga menandatangani surat terbuka yang mendukung keinsistenan CEO Anthropic Dario Amodei bahwa model mereka tidak digunakan untuk pengawasan massal atau senjata otonom.

Dampak potensial dari penetapan ‘risiko rantai pasokan’

Seberapa besar kerusakan pada bisnis Anthropic dari penetapan “risiko rantai pasokan” masih belum jelas selama akhir pekan. Anthropic memiliki kontrak $200 juta dengan Pentagon yang sekarang dibatalkan. Tapi itu bukan pukulan besar untuk perusahaan yang dilaporkan akan menghasilkan setidaknya $18 miliar pendapatan tahun ini.

Sebaliknya, kekhawatiran yang lebih besar adalah seberapa banyak perusahaan lain yang harus berhenti menggunakan teknologi Anthropic. Presiden Trump bilang di Truth Social bahwa semua departemen federal diperintahkan untuk segera berhenti menggunakan AI Anthropic, tapi dengan masa transisi enam bulan untuk mencegah gangguan. Total pengeluaran teknologi federal sekitar $140 miliar per tahun, tapi jumlah yang saat ini dikeluarkan pemerintah AS untuk AI hanya sebagian kecil dari itu.

MEMBACA  Yuan Tiongkok (USDCNY) turun di bawah 7,2 menyusul laporan intervensi PBOC Oleh Investing.com

Tapi bahaya terbesar datang dari bagaimana Pete Hegseth, Menteri Perang, menafsirkan penetapan risiko rantai pasokan dan dampaknya. Hegseth berkata dalam posting media sosial bahwa “efektif segera, tidak ada kontraktor, pemasok, atau mitra yang berbisnis dengan militer Amerika Serikat boleh melakukan aktivitas komersial apa pun dengan Anthropic.”

Kalau penafsiran itu bertahan, itu dapat menyebabkan kerusakan yang sangat parah pada bisnis Anthropic, karena banyak perusahaan besar yang dengan cepat mengadopsi model Claude Anthropic untuk pengkodean perangkat lunak dan kasus penggunaan lain juga melakukan beberapa bisnis dengan militer AS. Itu juga mungkin berarti bahwa perusahaan seperti Amazon, Google, dan Nvidia yang telah menginvestasikan miliaran dolar ke Anthropic harus melepaskan sahamnya dari perusahaan itu, berpotensi meninggalkan lubang pendanaan besar dan menyulitkan pengumpulan dana lebih lanjut dari investor AS.

Anthropic awal bulan ini mengumumkan telah menutup putaran pendanaan ventura baru senilai $30 miliar yang membuat nilai perusahaan menjadi $380 miliar. Mereka dilaporkan telah mempekerjakan penasihat keuangan dan hukum untuk IPO potensial yang bisa datang akhir tahun ini atau awal depan. Tapi pertarungan mereka dengan Pentagon sekarang mengancam prospek itu.

Banyak analis hukum dan ahli kebijakan AI mempertanyakan penafsiran luas Hegseth tentang penetapan “risiko rantai pasokan”. Peter Harrell, mantan pejabat Dewan Keamanan Nasional pemerintahan Biden dan sarjana tamu di Georgetown University Law School, memposting di X bahwa penetapan risiko rantai pasokan DoW hanya berlaku untuk pekerjaan pada kontrak Departemen Perang.

Menurut Harrell, Departemen Pertahanan (DoW) secara hukum tidak bisa melarang kontraktornya menggunakan Anthropic, bahkan di kontrak pribadi mereka.

Dean Ball, seorang pakar di Foundation for American Innovation dan mantan penasihat kebijakan AI untuk pemerintahan Trump, menulis di **X** bahwa interpretasi Hegseth tentang penunjukan risiko rantai pasokan itu “hampir pasti ilegal” dan sama dengan “percobaan pembunuhan korporat.” Dia menyebut tindakan Hegseth sebagai “perebutan kekuasaan yang psikotik” yang memberi pesan buruk bagi bisnis yang ingin kerja sama dengan pemerintah AS.

MEMBACA  Gambaran AI Google Diam-diam Mengubah Internet

Beberapa ahli hukum mencatat, bahkan jika penunjukan Anthropic sebagai risiko rantai pasokan diterapkan secara sempit, itu mungkin tidak akan bertahan di pengadilan. Charlie Bullock dari Institute for Law & AI mengatakan kepada Wired bahwa pemerintah tidak bisa menetapkan status itu tanpa menyelesaikan penilaian risiko—yang tidak jelas apakah sudah dilakukan—dan tanpa memberi tahu Kongres terlebih dahulu, yang juga sepertinya belum terjadi.

Amos Toh dari Brennan Center for Justice di NYU termasuk ahli hukum yang menyatakan bahwa penunjukan risiko rantai pasokan mengharuskan pemerintah membuktikan adanya risiko sabotase, penggulingan, atau manipulasi operasi oleh musuh. “Tidak jelas bagaimana musuh bisa memanfaatkan batasan penggunaan Claude dari Anthropic untuk menyabotase sistem militer,” kata Toh kepada situs berita DefenseScoop. Peraturan juga mensyaratkan Pentagon telah mencoba semua opsi lain yang kurang intrusif sebelum menetapkan status risiko. Toh mempertanyakan apakah Pentagon bisa mengklaim telah berusaha dengan “itikad baik” untuk mengejar langkah-langkah yang kurang drastis, mengingat betapa cepatnya perselisihan dengan Anthropic meningkat dalam beberapa hari terakhir.

Bahkan jika Anthropic akhirnya menang di pengadilan, kerusakan pada bisnisnya mungkin sudah terjadi. “Proses di pengadilan akan memakan waktu tahunan. Sementara itu, setiap penasihat hukum di perusahaan Fortune 500 yang berhubungan dengan Pentagon akan bertanya: apakah menggunakan Claude sepadan dengan risikonya?” tulis Shenaka Anslem Perera, seorang analis independen, di **X**.

Tinggalkan komentar