CEO OpenAI Sam Altman Bela Keputusan Kerja Sama dengan Pentagon, Akui ‘Kesan Visualnya Kurang Baik’

CEO OpenAI Sam Altman dan para eksekutif senior lainnya bicara di media sosial akhir pekan ini untuk membela keputusan mereka. Keputusan itu diumumkan hari Jumat, yaitu membuat kesepakatan dengan Departemen Perang AS. Kesepakatan ini mengizinkan model AI perusahaan dipakai di jaringan militer rahasia.

Kesepakatan terjadi beberapa jam setelah saingan besar mereka, Anthropic, menolak perjanjian serupa dengan Pentagon. Pemerintahan Trump juga mengatakan mereka akan memberi label Anthropic sebagai "risiko rantai pasokan".

OpenAI dapat banyak kritik karena setuju dengan kesepakatan Pentagon ini. Padahal, sebelumnya Altman menyatakan dukungan untuk posisi Anthropic. Anthropic menolak kontrak Pentagon jika tidak ada larangan jelas untuk teknologi AI-nya. Larangan itu termasuk untuk pengawasan massal warga AS atau senjata otonom yang bisa menyerang tanpa campur tangan manusia.

Beberapa kritikus bahkan mulai kampanye agar pengguna ChatGPT berhenti dan beralih ke chatbot Claude milik Anthropic. Kampanye ini terlihat berpengaruh: Claude menjadi aplikasi gratis yang paling banyak diunduh di App Store Apple, mengalahkan ChatGPT.

Trotoar di luar kantor OpenAI di San Francisco juga penuh coretan kapur yang menyerang keputusannya bekerja sama dengan Pentagon. Sebaliknya, coretan di kantor Anthropic memuji penolakan mereka.

Upaya Altman dan OpenAI di media sosial tampaknya bertujuan menenangkan kekhawatiran karyawan sendiri tentang kontrak Pentagon itu. Banyak karyawan OpenAI telah menandatangani surat terbuka minggu lalu yang mendukung penolakan Anthropic dan menentang pemberian label ‘risiko rantai pasokan’ kepada Anthropic. Altman juga mengatakan dia tidak setuju dengan pemberian label itu.

Setidaknya satu karyawan OpenAI mempertanyakan apakah kontrak dengan Pentagon punya pengamanan yang kuat. Leo Gao, karyawan OpenAI, mengkritik perusahaannya di platform X. Dia keberatan karena OpenAI mengizinkan Departemen Perang menggunakan teknologinya untuk "semua tujuan yang sah". Menurut Gao, klausul tambahan hanyalah "pemanis" agar terlihat ada batasan lebih ketat.

Altman mengakui dalam sesi "Tanya Jawab" di platform X bahwa kesepakatan dengan Pentagon "terlalu terburu-buru dan terlihat tidak baik". Namun dia bersikeras OpenAI bergerak cepat untuk meredakan ketegangan antara militer AS dan Anthropic. Pertikaian ini berisiko merusak industri AI secara keseluruhan.

MEMBACA  Suku Bunga Tabungan Berpeluang Tinggi Terbaik Hari Ini, 6 Februari 2026 (Imbal Hasil hingga 4% APY)

"Jika hubungan baik antara pemerintah dan perusahaan pengembang teknologi ini sangat kritis dalam beberapa tahun ke depan," tambah Altman. Dia juga menentang pemberian label risiko rantai pasokan ke Anthropic. "Memberlakukan label itu pada Anthropic akan sangat buruk untuk industri dan negara kita," katanya.

OpenAI mengatakan mereka menemukan pendekatan kompromi. Batasan penggunaan teknologi AI mereka ada dalam referensi hukum yang ada di kontrak dan juga batasan teknis pada kemampuan model AI-nya. Departemen Perang setuju pembatasan teknis ini dibangun oleh OpenAI. Sistem ini akan mengklasifikasi perintah dari pengguna dan menolak yang melanggar batasan. Model AI juga akan disesuaikan agar tidak mudah menuruti instruksi yang melanggar.

OpenAI Klaim Kontraknya Mengikat Pentagon pada Hukum yang Berlaku

OpenAI menerbitkan sebagian kontraknya dengan Departemen Perang. Kontrak menyatakan teknologinya dapat digunakan untuk "semua tujuan yang sah", tetapi juga mencantumkan referensi spesifik pada hukum AS dan dokumen kebijakan Departemen Perang yang membatasi pengawasan warga AS dan penggunaan senjata otonom.

Katrina Mulligan dari OpenAI mengatakan, merujuk pada hukum dan kebijakan yang ada memberikan jaminan lebih bahwa Pentagon tidak akan melanggar batasan perusahaan. "Kami menerima bahasa ‘semua penggunaan sah’ dari departemen, tetapi mewajibkan mereka mendefinisikan hukum yang membatasi mereka soal pengawasan dan otonomi langsung di dalam kontrak," jelasnya.

Namun, beberapa ahli hukum tidak setuju dengan posisi Mulligan, setidaknya terkait kebijakan Departemen Perang tentang senjata otonom. Charles Bullock, seorang ahli senior di Institute for Law & AI, mengatakan di X bahwa “DOW tentu saja bisa mengubah kebijakannya sendiri kapanpun,” dan bahwa bahasa kontrak yang dirilis OpenAI tidak mewajibkan DOW untuk mengikuti kebijakan yang ada selamanya. Tapi dia bilang kontrak itu sepertinya mewajibkan DOW untuk mengikuti interpretasi yang ada dari hukum yang mengatur pengawasan massal terhadap warga AS.

MEMBACA  UE Harus Bekukan Perdagangan dengan Israel Sampai Bantuan Lebih Banyak Masuk Gaza, Desak PM Swedia

Bullock juga mengatakan tidak mungkin tahu seberapa kuat batasan dalam kontrak OpenAI tanpa menilai seluruh kontraknya, bukan hanya bagian kecil yang OpenAI umumkan. OpenAI menyatakan aturan pemerintah melarangnya menerbitkan seluruh kontrak karena itu untuk sistem rahasia.

Perdebatan tentang definisi ‘pengawasan massal’

Banyak yang meragukan perjanjian OpenAI dengan Pentagon mencatat bahwa istilah "pengawasan massal" tidak jelas definisinya dan mempertanyakan eksekutif OpenAI tentang apa yang terjadi jika badan intelijen militer mencoba menggunakan model AI-nya untuk menganalisis data yang tersedia secara komersial—seperti data lokasi ponsel atau data dari aplikasi kebugaran—yang bisa digabungkan dalam skala besar untuk melakukan pengawasan terhadap warga AS di Amerika. Defense Intelligence Agency dipercaya telah membeli data seperti itu, dan penggunaannya masih menjadi area abu-abu secara hukum. Menurut cerita di The Atlantic, Anthropic khususnya khawatir tentang Pentagon menggunakan teknologinya untuk analisis semacam ini dan bahwa desakan mereka untuk membatasi penggunaan itu menjadi salah satu hambatan besar dalam kebuntuan dengan DOW.

“Kami tidak bisa melindungi dari lembaga pemerintah yang membeli kumpulan data komersial, tapi kontrak kami memasukkan larangan pengawasan massal domestik sebagai syarat penggunaan yang mengikat,” kata Mulligan selama AMA.

Dia juga mengatakan keputusan OpenAI untuk mengandalkan pendekatan multi-cabang yang termasuk sistem teknis untuk membatasi apa yang bisa dilakukan Pentagon memberikan solusi yang lebih kuat daripada hanya mengandalkan bahasa kontrak, yang katanya tampaknya menjadi pendekatan utama Anthropic. Dia bilang Anthropic belum bisa mengandalkan solusi teknis ini karena mereka sudah menyediakan versi model AI-nya ke militer yang beberapa pengamanan biasanya dihilangkan.

“Anthropic terutama khawatir dengan kebijakan penggunaan, karena penyebaran rahasia mereka yang ada melibatkan pengurangan atau penghapusan pengaman keselamatan (membuat kebijakan penggunaan sebagai pengaman utama dalam penyebaran keamanan nasional),” katanya. “Kebijakan penggunaan, sendiri saja, bukan jaminan apa-apa. Penyebaran AI yang bertanggung jawab di lingkungan rahasia harus melibatkan pengaman berlapis termasuk tumpukan keamanan yang prudent, batasan pada arsitektur penyebaran, dan keterlibatan langsung ahli AI dalam kasus penggunaan AI yang penting. Itu yang kami kejar dalam negosiasi, dan itu sebabnya kami pikir kesepakatan kami memiliki lebih banyak pengaman daripada perjanjian sebelumnya untuk penyebaran AI rahasia, termasuk milik Anthropic.”

MEMBACA  Pembicara Sub Mini Sonos Favorit Saya adalah Best Seller di Amazon dengan Harga Terendahnya, Terima kasih kepada Prime Week

Eksekutif OpenAI lain, Boaz Barak, yang bekerja pada keselarasan dan keamanan AI, juga mewakili perusahaan dalam AMA dan mengkritik Anthropic karena terlalu fokus pada bahasa kontrak dan bukan jenis pengaman lain. “Saya dapat kesan bahwa orang-orang di Anthropic punya ekspektasi tidak realistis tentang hal kontrak,” katanya menanggapi pertanyaan dari mantan kepala kebijakan OpenAI Miles Brundage, mencatat bahwa perusahaan teknologi selalu akan agak tergantung pada bagaimana DOW menginterpretasi istilah dalam kontrak.

Siapa yang harus memutuskan bagaimana AI digunakan?

Altman mengatakan banyak pertanyaan dalam sesi AMA menyentuh masalah apakah upaya AI harus dinasionalisasi. CEO OpenAI itu mencatat, “Sudah lama terasa bagi saya mungkin lebih baik jika membangun AGI [kecerdasan umum buatan] adalah proyek pemerintah.” Tapi dia menambahkan, “Itu tampaknya tidak terlalu mungkin dengan jalur saat ini.”

Altman juga mengatakan dia terkejut dengan betapa banyak kritikus OpenAI tampaknya lebih percaya pada eksekutif teknologi yang tidak terpilih dalam mengambil keputusan tentang penggunaan AI yang tepat daripada pejabat pemerintah yang, setidaknya secara teori, bertanggung jawab kepada Kongres dan akhirnya para pemilih.

“Saya sangat percaya pada proses demokrasi, dan bahwa pemimpin terpilih kita memiliki kekuasaan, dan bahwa kita semua harus menjunjung Konstitusi. Saya takut dengan dunia di mana perusahaan AI bertindak seperti mereka punya lebih banyak kekuasaan daripada pemerintah,” kata Altman di X. “Saya juga akan takut dengan dunia di mana pemerintah kita memutuskan pengawasan massal domestik itu boleh.”

Tinggalkan komentar