Mohon tunggu...
ruslan effendi
ruslan effendi Mohon Tunggu... Pengamat APBN dan Korporasi.

Lulusan S3 Akuntansi. Penulis pada International Journal of Public Administration, Frontiers in Built Environment, IntechOpen, Cogent Social Sciences, dan Penulis Buku Pandangan Seorang Akuntan: Penganganggaran Pendidikan Publik Untuk Kualitas Dan Keadilan (Pengantar Prof. Indra Bastian, MBA., Ph.D.)

Selanjutnya

Tutup

Kebijakan Pilihan

Standar Komunitas Facebook dan Ketidakadilan Algoritmik

20 April 2025   07:11 Diperbarui: 1 Mei 2025   17:39 64
+
Laporkan Konten
Laporkan Akun
Kompasiana adalah platform blog. Konten ini menjadi tanggung jawab bloger dan tidak mewakili pandangan redaksi Kompas.
Lihat foto
facebook-logos (Ilustrasi)/Image by natanaelginting on Freepik

Di tengah derasnya arus digitalisasi dan ledakan media sosial sebagai ruang publik baru, pertanyaan mendasar tentang siapa yang menentukan batas ekspresi di dunia maya menjadi semakin penting. Facebook, sebagai salah satu platform terbesar di dunia, mengklaim bahwa Community Standards yang mereka terapkan bertujuan menjaga keselamatan, inklusivitas, dan keberagaman suara. Namun, bagaimana bila "standar komunitas" justru menjadi alat yang menghapus suara komunitas tertentu?

Sebuah studi mutakhir yang dilakukan oleh Magdy, Mubarak, dan Salminen (2025) mengungkapkan ketimpangan yang mencolok dalam moderasi konten berbahasa Arab di Facebook selama konflik Palestina-Israel tahun 2021. Studi ini tidak hanya menganalisis ratusan konten yang dihapus oleh Facebook, tetapi juga meminta pengguna Arab untuk menilai sendiri konten-konten tersebut---baik berdasarkan Facebook Community Standards maupun opini pribadi mereka.

Baca juga:

Hasilnya mencengangkan. Sekitar 60% konten yang dihapus oleh Facebook dinilai oleh para anotator Arab tidak melanggar standar komunitas yang ditetapkan. Bahkan 71% dari mereka menyatakan bahwa konten-konten tersebut tidak pantas untuk dihapus menurut opini pribadi. Ini bukan hanya soal perbedaan interpretasi, tetapi soal ketidaksensitifan kultural dalam penerapan algoritma dan kebijakan moderasi global terhadap konteks lokal.

Facebook memang menghadapi tantangan besar dalam mengatur miliaran konten lintas budaya. Namun, dominasi model moderasi yang berbasis pada data pelatihan berbahasa Inggris dan berakar dari perspektif Barat menciptakan ketimpangan struktural. Dalam kasus ini, konten pro-Palestina---yang sebagian besar tidak mengandung ujaran kebencian atau kekerasan---dianggap melanggar standar, sementara konten yang secara eksplisit menyerang kelompok tertentu mendapat respons yang lebih "netral".

Fenomena ini menghidupkan kembali kritik terhadap algorithmic injustice atau ketidakadilan algoritmik. Algoritma bukanlah sistem netral. Ia dibentuk oleh nilai, data, dan asumsi pembuatnya. Ketika kebijakan dan sistem moderasi tidak membuka ruang partisipasi dari komunitas yang terdampak---seperti komunitas Arab dalam kasus ini---maka yang terjadi bukan hanya bias, tetapi penghilangan suara.

Pertanyaan penting pun muncul, apakah "komunitas" dalam Facebook Community Standards benar-benar mencerminkan keragaman komunitas global yang menggunakannya? Ataukah ia justru menjadi standar tunggal yang mendiamkan perbedaan?

Artikel ini tidak bermaksud menyederhanakan persoalan moderasi konten. Facebook memang harus melindungi pengguna dari kekerasan, eksploitasi, dan kebencian. Namun, pelajaran dari studi ini jelas, yaitu keadilan digital tidak bisa dibangun tanpa mendengar suara dari pinggiran. Dunia digital global memerlukan standar yang tidak hanya "global" dalam distribusi pengguna, tetapi juga dalam representasi nilai, perspektif, dan ekspresi budaya yang beragam.

Jika Facebook ingin tetap menjadi ruang publik yang terbuka dan aman, maka ia harus lebih terbuka terhadap kritik, transparan dalam kebijakan, dan inklusif dalam menetapkan serta menafsirkan Community Standards. Tanpa itu, standar komunitas hanya akan menjadi alat hegemonik yang menambah luka dalam ketimpangan digital global.

Referensi:

Magdy, W., Mubarak, H., & Salminen, J. (2025). Who should set the standards? Analysing censored Arabic content on Facebook during the Palestine-Israel conflict. In CHI Conference on Human Factors in Computing Systems (CHI'25), April 26--May 1, 2025, Yokohama, Japan (pp. 1--16). Association for Computing Machinery.

HALAMAN :
  1. 1
  2. 2
Mohon tunggu...

Lihat Konten Kebijakan Selengkapnya
Lihat Kebijakan Selengkapnya
Beri Komentar
Berkomentarlah secara bijaksana dan bertanggung jawab. Komentar sepenuhnya menjadi tanggung jawab komentator seperti diatur dalam UU ITE

Belum ada komentar. Jadilah yang pertama untuk memberikan komentar!
LAPORKAN KONTEN
Alasan
Laporkan Konten
Laporkan Akun