Kesimpulan dari perubahan moderasi konten terbaru Meta mulai terungkap. Bulan lalu, Meta mengumumkan akan mengurangi program pemeriksaan fakta di Facebook, Instagram, dan Threads mulai musim semi ini demi pendekatan Catatan Komunitas, di mana pengguna individual secara sukarela memberikan komentar pada posting dengan konteks tambahan atau informasi yang berbeda. Persyaratan untuk apa yang perlu disertakan dalam catatan oleh sukarelawan relatif sedikit dibandingkan dengan pemeriksaan fakta sebenarnya; mereka hanya perlu mengikuti Standar Komunitas Meta, tetap di bawah 500 karakter, dan menyertakan tautan. Meta akan tetap menjadi otoritas pada konten yang masuk ke wilayah ilegal, termasuk penipuan, eksploitasi seksual anak, dan penipuan. Hal ini menjadikan konten yang kontroversial, menyesatkan, dan dihasilkan oleh AI yang tidak termasuk dalam kategori tersebut berada dalam zona abu-abu, dengan pengawasan yang sedikit terukur. Pada hari Senin, ProPublica menerbitkan analisis yang menunjukkan perubahan lain: Pada bulan Oktober, Meta meluncurkan program monetisasi baru yang menghidupkan kembali Bonus Kinerja, program yang menawarkan uang tunai untuk postingan yang mencapai metrik keterlibatan tertentu. Meskipun hingga saat ini hanya tersedia bagi pembuat secara undangan, program ini akan diperluas ketersediaannya suatu saat tahun ini. Di masa lalu, Meta tidak memberikan imbalan untuk konten yang ditandai oleh pemeriksa fakta; Namun, ProPublica mencatat, kebijakan itu tidak akan berpengaruh saat tanda tersebut berhenti ada. Hal ini efektif mendorong pengguna untuk membuat konten “hoax” viral demi uang – meskipun Meta mengatakan bahwa itu “masih mungkin mengurangi distribusi konten hoax tertentu yang penyebarannya menciptakan pengalaman pengguna atau produk yang sangat buruk (misalnya, hoax komersial tertentu).” Sebagai contoh dari apa yang dapat diperkuat oleh ini, ProPublica menemukan 95 halaman Facebook “yang secara teratur mengirimkan judul palsu yang dirancang untuk menarik keterlibatan – dan, seringkali, memperkeruh perpecahan politik,” yang disebutkan bahwa hal tersebut sebagian besar dikelola oleh orang di luar AS untuk audiens kolektif lebih dari 7,7 juta pengikut. Setelah ditinjau, Meta memberi tahu ProPublica bahwa mereka telah menghapus 81 halaman ini, tetapi tidak mengkonfirmasi apakah mereka menerima pembayaran konten viral. Tidak jelas apakah Meta akan dengan cara tertentu menanamkan versi kebijakan tanpa bayaran itu ke dalam program Catatan Komunitas; dengan kriteria evaluasi yang begitu berbeda, sulit untuk melihat bagaimana itu akan berfungsi. Sementara skandal Cambridge Analytica 2018 berpusat pada manipulasi data pengguna Facebook yang dapat diakses, hal itu juga mengungkapkan betapa mudahnya kampanye yang ditargetkan, terlepas dari faktualitasnya, dapat beredar di platform sosial. Penggunaan algoritma personalisasi perusahaan media sosial membuat hal ini terutama efektif. Baru-baru ini, chatbot Grok xAI tertangkap tampaknya menekan informasi yang merugikan tentang Elon Musk dan Presiden Trump dalam tanggapan kepada pengguna. OpenAI baru-baru ini memperbarui Model Spec-nya untuk memungkinkan ChatGPT untuk berinteraksi dengan pertanyaan yang sebelumnya tidak akan dilakukan. Pemerintahan Trump sedang dalam proses mengurangi kekuatan badan regulasi AI AS, yang memantau perusahaan dan alat AI untuk keamanan dan penggunaan yang tepat. Meskipun ini adalah insiden-insiden terpisah, mereka juga adalah pergeseran terkait dalam jaringan alat internet dari mana banyak warga AS mendapatkan sebagian besar atau seluruh informasi mereka; seperti yang ditemukan oleh Pew Research, satu dari lima orang dewasa di AS mendapatkan konten mereka dari “pengaruh berita” (tetapi tidak bisa mengidentifikasi mereka, juga). Kejadian Grok menyoroti bagaimana sistem ini dapat dimanipulasi untuk kepentingan individual, meskipun perusahaan teknologi mengklaim bahwa mereka sedang menciptakan lebih banyak “kebebasan intelektual” dan mengurangi sensor. Media sosial belum pernah menjadi sumber informasi yang sangat aman, dan studi telah mengidentifikasi batasan-batasan efektivitas pemeriksaan fakta di platform sosial. Namun demikian, pergeseran ini dapat lebih memperdalam kesenjangan kualitas informasi. Menempatkan tanggung jawab untuk memverifikasi postingan bahkan lebih pada pengguna menimbulkan ancaman unik karena lubang literasi media yang sangat besar di AS. Hal ini juga dapat memaksa informasi yang lebih dapat diandalkan di balik pagar, termasuk paywall. Apakah seorang pengguna melihat berita sebenarnya di umpan mereka – atau memperhatikan Catatan Komunitas pada suatu posting – akan tergantung pada bagaimana konten itu bersaing dalam algoritme Meta, di mana itu akan semakin bersaing dengan postingan yang terinventivasi, provokatif.
