Mittelsteadt menambahkan bahwa Trump bisa menghukum perusahaan dengan berbagai cara. Dia mengutip contohnya, seperti cara pemerintahan Trump membatalkan kontrak federal utama dengan Amazon Web Services, keputusan yang kemungkinan dipengaruhi oleh pandangan mantan presiden terhadap Washington Post dan pemiliknya, Jeff Bezos. Tidak akan sulit bagi pembuat kebijakan untuk menunjukkan bukti bias politik dalam model AI, meskipun memotong keduanya. Studi 2023 oleh peneliti di University of Washington, Carnegie Mellon University, dan Xi’an Jiaotong University menemukan berbagai kecenderungan politik dalam berbagai model bahasa besar. Ini juga menunjukkan bagaimana bias ini dapat mempengaruhi kinerja sistem deteksi ujaran kebencian atau misinformasi. Studi lain, yang dilakukan oleh peneliti di Hong Kong University of Science and Technology, menemukan bias dalam beberapa model AI open source tentang isu-isu polarisasi seperti imigrasi, hak reproduksi, dan perubahan iklim. Yejin Bang, kandidat PhD yang terlibat dalam pekerjaan tersebut, mengatakan bahwa sebagian besar model cenderung liberal dan berpusat pada AS, namun model yang sama dapat mengekspresikan berbagai bias liberal atau konservatif tergantung pada topiknya. Model AI menangkap bias politik karena mereka dilatih pada sejumlah besar data internet yang tidak terhindarkan termasuk berbagai perspektif. Kebanyakan pengguna mungkin tidak menyadari adanya bias dalam alat yang mereka gunakan karena model-model tersebut mencakup pembatas yang membatasi mereka dari menghasilkan konten yang merugikan atau bias. Bias ini bisa bocor secara halus meskipun, dan pelatihan tambahan yang diterima model untuk membatasi output mereka dapat memperkenalkan partisipasi lebih lanjut. “Pengembang bisa memastikan bahwa model-model terpapar pada berbagai perspektif tentang topik yang memecah belah, memungkinkan mereka untuk merespons dengan sudut pandang yang seimbang,” kata Bang. Masalah ini bisa menjadi lebih buruk seiring dengan meningkatnya penetrasi sistem AI, kata Ashique KhudaBukhsh, seorang ilmuwan komputer di Rochester Institute of Technology yang mengembangkan alat bernama Kerangka Lubang Kelincahan, yang mengekspos berbagai bias sosial model bahasa besar. “Kami khawatir bahwa siklus buruk akan dimulai karena generasi baru LLM akan semakin dilatih pada data yang terkontaminasi oleh konten yang dihasilkan AI,” katanya. “Saya yakin bahwa bias dalam LLM sudah menjadi masalah dan kemungkinan besar akan menjadi masalah yang lebih besar di masa depan,” kata Luca Rettenberger, seorang peneliti pascadoktoral di Karlsruhe Institute of Technology yang melakukan analisis LLM untuk bias yang terkait dengan politik Jerman. Rettenberger menyarankan bahwa kelompok-kelompok politik juga mungkin mencoba mempengaruhi LLM untuk mempromosikan pandangan mereka sendiri di atas pandangan orang lain. “Jika seseorang sangat ambisius dan memiliki niat jahat, mungkin memungkinkan untuk memanipulasi LLM ke arah tertentu,” katanya. “Saya melihat manipulasi data pelatihan sebagai bahaya nyata.” Sudah ada beberapa upaya untuk menggeser keseimbangan bias dalam model AI. Maret lalu, seorang programmer mengembangkan chatbot yang lebih condong ke kanan dalam upaya untuk menyoroti bias halus yang ia lihat dalam alat seperti ChatGPT. Musk sendiri telah berjanji untuk membuat Grok, chatbot AI yang dibangun oleh xAI, “maksimal dalam pencarian kebenaran” dan kurang bias dibandingkan dengan alat AI lainnya, meskipun dalam praktiknya juga meragukan ketika menyangkut pertanyaan politik yang sulit. (Seorang pendukung Trump yang teguh dan pengawas imigrasi, pandangan Musk sendiri tentang “kurang bias” juga dapat diterjemahkan sebagai hasil yang lebih condong ke kanan.) Pemilihan minggu depan di Amerika Serikat sangat tidak mungkin bisa menyembuhkan ketidaksepakatan antara Demokrat dan Republik, tetapi jika Trump menang, pembicaraan tentang AI anti-woke bisa menjadi lebih keras. Musk menawarkan pandangan apokaliptik tentang masalah tersebut dalam acara minggu ini, merujuk pada insiden ketika Gemini Google mengatakan bahwa perang nuklir akan lebih baik daripada salah memperjelas Caitlyn Jenner. “Jika Anda memiliki AI yang diprogram untuk hal-hal seperti itu, bisa disimpulkan bahwa cara terbaik untuk memastikan tidak ada yang disebut keliru adalah dengan menghancurkan semua manusia, sehingga membuat probabilitas kesalahan gender di masa depan menjadi nol,” katanya.