Departemen Efisiensi Pemerintah (DOGE) yang disebut-sebut oleh Elon Musk beroperasi dengan asumsi dasar inti: Amerika Serikat seharusnya dijalankan seperti startup. Sejauh ini, itu sebagian besar berarti pemecatan yang kacau dan keinginan untuk menindas regulasi. Tetapi tidak ada pitch deck pada tahun 2025 yang lengkap tanpa overdosis kecerdasan buatan, dan DOGE tidak berbeda.
AI sendiri tidak secara refleksif layak mendapat garpu. Itu memiliki penggunaan yang asli dan dapat menciptakan efisiensi yang nyata. Tidak secara inheren tidak pantas untuk memperkenalkan AI ke dalam alur kerja, terutama jika Anda menyadari dan mampu mengelilingi batasannya. Namun, tidak jelas apakah DOGE telah merangkul nuansa itu. Jika Anda memiliki palu, segalanya terlihat seperti paku; jika Anda memiliki akses paling banyak ke data paling sensitif di negara ini, segalanya terlihat sebagai input.
Di mana pun DOGE pergi, AI selalu mengikuti. Mengingat opasitas organisasi tersebut, banyak yang masih tidak diketahui tentang bagaimana tepatnya itu digunakan dan di mana. Tetapi dua pengungkapan minggu ini menunjukkan seberapa luas – dan mungkin salah arah – aspirasi AI DOGE.
Di Departemen Perumahan dan Pembangunan Perkotaan, seorang mahasiswa sarjana telah diberi tugas untuk menggunakan AI untuk menemukan di mana regulasi HUD mungkin melebihi interpretasi ketat dari undang-undang yang mendasarinya. Ini adalah tugas yang sebenarnya masuk akal bagi AI, yang dapat mensintesis informasi dari dokumen-dokumen besar jauh lebih cepat daripada manusia. Ada risiko halusinasi – lebih khusus lagi, dari model yang mengeluarkan kutipan yang sebenarnya tidak ada – tetapi seorang manusia perlu menyetujui rekomendasi ini terlebih dahulu. Ini, pada satu tingkat, adalah apa yang generative AI sebenarnya sangat baik dilakukan: mengerjakan pekerjaan membosankan dengan cara yang sistematis.
Ada sesuatu yang merugikan, bagaimanapun, dalam meminta model AI untuk membantu membongkar negara administratif. (Di luar fakta itu; pendapat Anda akan bervariasi tergantung pada apakah Anda menganggap perumahan berpenghasilan rendah sebagai kebaikan sosial atau Anda lebih suka menjadi Tidak di Halaman Manapun.) AI sebenarnya tidak “tahu” apa pun tentang regulasi atau apakah mereka sesuai dengan pembacaan undang-undang yang paling ketat, sesuatu yang bahkan pengacara yang sangat berpengalaman akan tidak setuju. Itu perlu diberi makan prompt yang menjelaskan apa yang harus dicari, yang berarti Anda tidak hanya dapat mempengaruhi pengadil tetapi juga menulis buku aturannya untuk mereka. Ia juga sangat bersemangat untuk menyenangkan, sampai pada titik bahwa ia dengan percaya diri akan membuat sesuatu yang tidak ada daripada menolak untuk merespons.
Jika tidak ada yang lain, ini adalah jalan terpendek menuju pemangkasan otoritas agensi besar, dengan kemungkinan kebingungan yang tersebar untuk diukur dengan baik.
Paling tidak, itu adalah kasus penggunaan yang dapat dimengerti. Hal yang sama tidak bisa dikatakan untuk upaya AI lain yang terkait dengan DOGE. Seperti yang dilaporkan WIRED pada Jumat, seorang perekrut DOGE awal sekali lagi mencari insinyur, kali ini untuk “merancang benchmampilkan dan mendeploy agen AI di alur kerja langsung di lembaga pemerintah.” Tujuannya adalah untuk menghilangkan puluhan ribu posisi pemerintah, menggantikannya dengan AI agen dan “membebaskan” pekerja untuk tugas-tugas yang secara asumsi memiliki “dampak yang lebih tinggi”.