Institut Standar dan Teknologi Nasional (NIST) telah mengeluarkan instruksi baru kepada para ilmuwan yang bermitra dengan Institute Keamanan Kecerdasan Buatan Amerika (AISI) yang menghilangkan penyebutan “keamanan AI,” “AI yang bertanggung jawab,” dan “keadilan AI” dalam keterampilan yang diharapkan dari anggotanya dan memperkenalkan permintaan untuk memprioritaskan “mengurangi bias ideologis, untuk memungkinkan kesejahteraan manusia dan daya saing ekonomi.” Informasi itu datang sebagai bagian dari perjanjian penelitian dan pengembangan terbaru untuk anggota konsorsium Institut Keamanan AI, yang dikirim pada awal Maret. Sebelumnya, perjanjian itu mendorong para peneliti untuk memberikan kontribusi kerja teknis yang dapat membantu mengidentifikasi dan memperbaiki perilaku model yang diskriminatif terkait dengan gender, ras, usia, atau ketimpangan kekayaan. Bias semacam itu sangat penting karena dapat secara langsung memengaruhi pengguna akhir dan secara tidak proporsional merugikan minoritas dan kelompok ekonomi yang kurang mampu. Perjanjian baru menghilangkan penyebutan pengembangan alat “untuk mengotentikasi konten dan melacak provenansnya” serta “memberi label pada konten sintetis,” menandakan kurangnya minat dalam melacak informasi yang salah dan deep fake. Ini juga menekankan untuk menempatkan Amerika pertama, meminta satu kelompok kerja untuk mengembangkan alat uji “untuk memperluas posisi AI global Amerika.” “Pemerintahan Trump telah menghapus keamanan, keadilan, informasi yang salah, dan tanggung jawab sebagai hal yang dihargai untuk AI, yang menurut saya sudah cukup jelas,” kata seorang peneliti di sebuah organisasi yang bekerja dengan Institut Keamanan AI, yang meminta namanya tidak disebutkan karena takut mendapat balasan. Peneliti itu percaya bahwa mengabaikan isu-isu ini bisa merugikan pengguna reguler dengan kemungkinan membiarkan algoritma yang diskriminatif berdasarkan pendapatan atau demografi lainnya tidak terkendali. “Kecuali Anda adalah miliarder teknologi, hal ini akan mengarah pada masa depan yang lebih buruk bagi Anda dan orang-orang yang Anda pedulikan. Harapkan AI untuk tidak adil, diskriminatif, tidak aman, dan diterapkan secara tidak bertanggung jawab,” klaim peneliti itu. “Ini liar,” kata seorang peneliti lain yang pernah bekerja dengan Institut Keamanan AI di masa lalu. “Apa artinya bagi manusia untuk berkembang?” Elon Musk, yang saat ini memimpin upaya kontroversial untuk memangkas pengeluaran pemerintah dan birokrasi atas nama Presiden Trump, telah mengkritik model AI yang dibangun oleh OpenAI dan Google. Februari lalu, ia memposting meme di mana Gemini dan OpenAI diberi label “rasis” dan “mengikuti tren.” Ia sering mengutip insiden di mana salah satu model Google membahas apakah akan salah membedakan gender seseorang meskipun itu bisa mencegah apokalips nuklir – sebuah skenario yang sangat tidak mungkin. Selain Tesla dan SpaceX, Musk menjalankan xAI, sebuah perusahaan AI yang bersaing langsung dengan OpenAI dan Google. Seorang peneliti yang memberikan saran kepada xAI baru-baru ini mengembangkan teknik baru untuk mungkin mengubah kecenderungan politik dari model bahasa besar, seperti dilaporkan oleh WIRED. Sejumlah penelitian menunjukkan bahwa bias politik dalam model AI dapat mempengaruhi baik liberal maupun konservatif. Sebagai contoh, sebuah studi terhadap algoritma rekomendasi Twitter yang dipublikasikan pada tahun 2021 menunjukkan bahwa pengguna lebih mungkin diperlihatkan perspektif yang cenderung ke kanan di platform tersebut. Sejak Januari, Departemen Efisiensi Pemerintah yang disebut Departemen DOGE telah merambah pemerintah AS, efektif memecat pegawai negeri, menghentikan pengeluaran, dan menciptakan lingkungan yang dianggap tidak ramah bagi mereka yang mungkin menentang tujuan administrasi Trump. Beberapa departemen pemerintah seperti Departemen Pendidikan telah mengarsipkan dan menghapus dokumen yang menyebutkan DEI. DOGE juga telah menargetkan NIST, organisasi induk AISI, dalam beberapa minggu terakhir. Puluhan karyawan telah dipecat.
