Spare a thought for the people of Coulsdon, England, who say they’re being categorically oppressed by the heavy hand of algorithmic censorship for no reason other than the seemingly innocuous spelling of their town’s name. Menurut blog berita lokal Inside Croydon, pemilik bisnis dan asosiasi lingkungan di kota tersebut telah mengalami konten yang dihapus dari halaman Facebook mereka karena algoritma moderasi konten platform tersebut menangkap “LSD” di Coulsdon sebagai referensi ke obat psikedelik. Blog tersebut, mengutip sumber-sumber lokal yang enggan disebutkan namanya, mengatakan bahwa halaman untuk teater lokal, toko peralatan, kelompok sejarah, dan asosiasi penduduk semuanya terkena sensor dan bahwa Facebook belum memperbaiki masalah tersebut meskipun adanya keluhan berulang. “Selama memiliki ‘Coulsdon’ dalam judulnya, Anda mendapatkan referensi obat yang tidak mungkin dihindari,” kata satu sumber anonim kepada Inside Croydon. Dalam pernyataan singkat, Dave Arnold, juru bicara perusahaan induk Facebook, Meta, mengatakan “ini adalah kesalahan yang sekarang sudah diperbaiki.” Ini bukan kali pertama filter Facebook memblokir pos yang berisi informasi yang tidak berbahaya atau mungkin menyelamatkan nyawa. Pada tahun 2021, Facebook meminta maaf kepada beberapa pengguna Inggris karena menyensor dan melarang orang yang memposting tentang Plymouth Hoe, sebuah landmark di kota pantai Plymouth. The Washington Post melaporkan awal tahun ini bahwa ketika kebakaran hutan melanda Pantai Barat, algoritma perusahaan tersebut menyensor pos tentang kebakaran di grup manajemen darurat lokal dan kelompok keselamatan kebakaran. Dalam puluhan contoh yang didokumentasikan oleh surat kabar tersebut, Facebook menandai pos-pos tersebut sebagai spam “menyesatkan.” Administrator grup Facebook juga sebelumnya pernah memperhatikan pola pos di komunitas mereka yang mengandung kata “pria” yang ditandai sebagai ujaran kebencian, menurut Vice. Fenomena ini mengarah pada penciptaan facebookjailed.com, di mana pengguna mendokumentasikan keputusan moderasi yang aneh, seperti gambar ayam yang dilabeli sebagai kegiatan telanjang atau seksual. Data Facebook sendiri menunjukkan bahwa ketergantungan beratnya pada algoritma untuk memantau konten di platform tersebut menghasilkan jutaan kesalahan setiap bulan. Menurut data moderasi terbarunya, Facebook melakukan 1,7 juta tindakan penegakan hukum terhadap konten terkait obat antara April dan Juni tahun ini. Sekitar 98 persen konten tersebut dideteksi oleh perusahaan, dibandingkan dengan hanya 2 persen yang dilaporkan oleh pengguna. Orang mengajukan banding atas sanksi dalam 182.000 kasus dan Facebook akhirnya mengembalikan lebih dari 40.000 konten – 11.700 tanpa perlu banding dan 28.500 setelah banding. Algoritma yang menargetkan jenis konten terlarang lainnya, seperti spam, menghasilkan lebih banyak kesalahan. Platform ini mengembalikan hampir 35 juta pos yang keliru dilabeli sebagai spam selama periode tiga bulan terakhir, lebih dari 10 persen dari konten yang diduga spam yang sebelumnya dihapus.