Bocoran Panduan Sensor Konten Tidak Pantas di Facebook

Facebook Inc. dikabarkan telah menetapkan panduan sensor posting di Facebook untuk mencegah peredaran materi yang bermuatan kekerasan, kebencian, dan seksual.
Demis Rizky Gosta | 23 Mei 2017 12:52 WIB
Facebook - Istimewa

Bisnis.com, JAKARTA -- Facebook Inc. dikabarkan telah menetapkan panduan sensor posting di Facebook untuk mencegah peredaran materi yang bermuatan kekerasan, kebencian, dan seksual.

Laporan The Guardian yang dikutip Bloomberg menyatakan Facebook Inc. menciptakan aturan sebagai acuan moderator dalam memantau dan menyaring konten yang di-post oleh pengguna Facebook.

Facebook saat ini mempekerjakan ribuan orang moderator untuk memantau post yang dinilai tidak pantas (offensive), termasuk video berisi kematian, kekerasan, materi seksual, pelecehan, hingga pernyataan berbau ancaman.

The Guardian menyatakan memiliki salinan ribuan slide dan gambar yang dibagikan Facebook kepada para moderator tahun lalu. Dokumen yang dimiliki Guardian juga menyatakan para moderator merasa kewalahan dengan banyaknya jumlah post yang harus dipantau dan merasa kebingungan terhadap kebijakan-kebijakan Facebook yang saling bertentangan.

Berikut adalah beberapa kebijakan “sensor” Facebook menurut The Guardian:

  • Video yang menggambarkan kematian yang kejam (violent) diizinkan asal diciptakan untuk menarik perhatian atas isu tertentu seperti penyakit kejiwaan.
  • Gambar penyiksaan anak dihapus jika di-share dengan nada “perayaan dan sadisme”. Selain itu, bisa tetap berada di situs dan ditandai “menggelisahkan” (disturbing).
  • Penyiksaan atas hewan diizinkan, namun terkadang perlu diberi klasifikasi “menggelisahkan”
  • Ancaman bernada kekerasan atas figur politik seperti Presiden Amerika Serikat Donald Trump atau terhadap kelompok keagamaan harus dihapus. Namun, konten dalam bahasa yang lebih spesifik seperti “mari pukuli anak gendut” atau “tendang orang berambut merah”, bisa bertahan di Facebook bisa dibiarkan karena dinilai bukan ancaman yang kredibel.

Facebook, kepada Guardian, menyatakan sangat sulit untuk mencapai konsensus dengan jasa yang melayani sekitar 2 miliar orang. Setiap orang memiliki pandangan berbeda tentang apa yang pantas dan tidak pantas untuk dibagikan (shared).

Sebelumnya, Facebook menyatakan mempekerjakan tambahan 3.000 orang untuk memantau gambar di situs jejaring sosial tersebut. Langkah tersebut diambil setelah Facebook menerima kritik saat pembunuhan dan bunuh diri disiarkan langsung dalam Facebook.

Tag : facebook, media sosial
Editor : Demis Rizky Gosta

Berita Terkait



Berita Terkini Lainnya



Top