Leaked Docs Spotlight Kompleksitas Moderasi Konten Facebook

0
180

Publik mendapat gambaran langka tentang bagaimana Facebook mencoba untuk terus menyinggung konten berbahaya dan berbahaya secara offline dalam sebuah laporan yang diterbitkan pada hari Minggu.

Dokumen rahasia yang bocor ke The Guardian mengungkapkan peraturan rahasia yang digunakan oleh posnya untuk memprotes isu-isu seperti kekerasan, perkataan yang membenci, terorisme, pornografi, rasisme dan pelecehan diri, serta subjek penyesuaian olahraga dan kanibalisme.

Setelah meninjau lebih dari 100 manual pelatihan internal, spreadsheet dan diagram alir, The Guardian menemukan bahwa kebijakan moderasi Facebook sering membingungkan.

Misalnya, ancaman terhadap kepala sebuah negara secara otomatis dihapus, namun ancaman terhadap orang lain tidak tersentuh kecuali jika dianggap “kredibel.”

Foto pelecehan fisik dan intimidasi seksual nonseksual tidak harus dihapus kecuali mengandung unsur sadis atau perayaan. Foto pelecehan hewan diperbolehkan, meskipun jika pelecehan itu sangat mengganggu, mereka perlu ditandai “mengganggu.”

Facebook akan memungkinkan orang untuk melakukan live-stream mencoba untuk menyakiti diri mereka sendiri karena “tidak ingin menyensor atau menghukum orang dalam keadaan tertekan.”

Setiap anggota Facebook dengan lebih dari 100.000 pengikut dianggap sebagai tokoh masyarakat dan diberi perlindungan lebih sedikit daripada anggota lainnya.

Menjaga Orang Aman

Menanggapi pertanyaan dari The Guardian , Facebook membela usaha moderasinya.

“Menjaga orang di Facebook aman adalah hal terpenting yang kami lakukan,” kata Monika Bickert, kepala manajemen kebijakan global Facebook.

“Kami bekerja keras untuk membuat Facebook seaman mungkin sambil memungkinkan kebebasan berbicara,” katanya kepada TechNewsWorld. “Ini membutuhkan banyak pemikiran tentang pertanyaan yang terperinci dan sering sulit, dan mendapatkan yang benar adalah sesuatu yang kita anggap sangat serius.”

Sebagai bagian dari upayanya untuk “melakukannya dengan benar,” perusahaan tersebut baru-baru ini mengumumkan akan menambah 3.000 orang ke tim operasi komunitas globalnya selama tahun depan, untuk meninjau jutaan laporan penyalahgunaan konten yang diterima Facebook setiap hari.

“Selain berinvestasi pada lebih banyak orang, kami juga membangun alat yang lebih baik untuk menjaga agar komunitas kami tetap aman,” kata Bickert. “Kami akan mempermudah melaporkan masalah kepada kami, lebih cepat bagi pengulas kami untuk menentukan pos mana yang melanggar standar kami, dan memudahkan mereka untuk menghubungi petugas penegak hukum jika ada yang memerlukan bantuan.”

Pekerjaan Menghancurkan Jiwa

Jika laporan The Guardian mengungkapkan apa adanya, betapa kompleksnya konten moderat pada jaringan sosial.

“Ini menyoroti bagaimana konten kepolisian yang menantang di situs seperti Facebook, dengan skala yang sangat besar, adalah,” catat Jan Dawson, analis kepala di Jackdaw Research , dalam sebuah posting online.

Moderator harus menempuh garis batas antara penyensoran dan melindungi pengguna, katanya.

“Ini juga menyoroti ketegangan antara mereka yang menginginkan Facebook berbuat lebih banyak terhadap polisi konten yang tidak pantas dan tidak menyenangkan, dan mereka yang merasa sudah terlalu banyak menyensor,” lanjut Dawson.

Baik orang-orang yang menulis kebijakan maupun tidak memberlakukannya memiliki pekerjaan yang patut ditiru, katanya, dan dalam kasus moderator konten, pekerjaan itu bisa menghancurkan jiwa.

Namun, “seperti yang telah kami lihat terkait dengan video baru-baru ini,” kata Dawson, “ini sangat penting dan akan menjadi area investasi yang semakin mahal bagi perusahaan seperti Facebook dan Google.”

‘Tidak ada Transparansi Apapun’

Facebook telah menghindar dari merilis banyak rincian tentang aturan yang moderator gunakan untuk bertindak berdasarkan konten yang dilaporkan kepada mereka.

“Mereka mengatakan mereka tidak ingin menerbitkan jenis itu karena hal itu memungkinkan orang jahat untuk memainkan sistem ini,” kata Rebecca MacKinnon, direktur program Digital Rights Ranking di Open Technology Institute .

“Namun, ada terlalu sedikit transparansi sekarang, itulah sebabnya mengapa barang ini bocor,” katanya.

Proyek Digital Rights Ranking menilai transparansi informasi perusahaan mengenai berbagai kebijakan yang terkait dengan kebebasan berekspresi dan privasi, MacKinnon menjelaskan. Perusahaan tersebut mempertanyakan perusahaan dan mencari informasi tentang aturan mereka untuk moderasi konten, bagaimana mereka menerapkan peraturan tersebut, dan volume konten yang dihapus atau dibatasi.

“Dengan Facebook, tidak ada transparansi apapun,” kata MacKinnon. “Tingkat transparansi yang rendah tidak melayani pengguna atau perusahaan mereka dengan sangat baik.”

Kematian oleh Penerbit

Karena jumlah konten di situs media sosial telah berkembang, telah terjadi teguran dari beberapa sudut Internet karena perlakuan terhadap situs sebagai penerbit. Sekarang mereka diperlakukan hanya sebagai distributor yang tidak bertanggung jawab atas apa yang diposkan pengguna mereka.

“Mengatakan perusahaan bertanggung jawab atas semua yang dilakukan pengguna mereka tidak akan menyelesaikan masalah,” kata MacKinnon. “Ini mungkin akan membunuh banyak hal baik tentang media sosial.”

Membuat Facebook sebagai publisher tidak hanya akan menghancurkan status terlindunginya sebagai platform pihak ketiga, tapi juga bisa menghancurkan perusahaan tersebut, catat Karen North, direktur Program Annenberg on Online Communities di University of Southern California .

“Ketika Anda membuat keputusan editorial subjektif, Anda seperti sebuah surat kabar yang isinya adalah tanggung jawab manajemen,” katanya kepada TechNewsWorld. “Mereka tidak akan pernah bisa memasang tim yang cukup besar untuk membuat keputusan tentang segala hal yang diposting di Facebook. Ini akan menjadi akhir dari Facebook.”