Rasanya terlalu sering kita melihat berita bahwa beberapa pelanggaran berat atau lainnya dilakukan di salah satu situs media sosial, termasuk postingan ilegal atau streaming langsung konten kekerasan. Sangat mudah untuk bertanya-tanya bagaimana, di zaman yang maju secara teknologi ini, hal-hal seperti itu dapat lolos begitu saja.
Namun, faktanya, hampir tidak mungkin memoderasi situs media sosial secara efektif. Mengapa? Ada beberapa alasan.
Beberapa situs media sosial masih baru atau lebih khusus. Namun, situs media sosial utama memiliki basis pengguna yang luas. Situs terbesar memiliki antara ratusan juta hingga miliaran pengguna. Secara alami, platform apa pun yang sebesar itu sulit dipantau.
Sebagian besar jejaring sosial utama mengelola ini melalui kombinasi pelaporan komunitas, algoritme (secara tidak sempurna) dilatih untuk menemukan konten berbahaya, dan beberapa moderator manusia. Meskipun anggota komunitas atau AI mungkin melihat dan melaporkan informasi berbahaya, manusia (atau sekelompok manusia)lah yang memiliki keputusan akhir. Dan, banyak situs menawarkan proses banding.
Situs media sosial tidak hanya besar dalam hal basis penggunanya. Negara bagian yang berbeda dan negara yang berbeda memiliki undang-undang yang berbeda terkait dengan jenis konten apa yang perlu dilaporkan dan bagaimana caranya.
Jadi, perusahaan media sosial yang aktif di wilayah geografis yang berbeda seringkali harus memiliki kebijakan yang berbeda untuk pengguna yang berbeda. Ini termasuk berbagai kebijakan untuk misinformasi dan privasi. Nyatanya, Twitter harus menyetujui persyaratan khusus untuk dibatalkan larangannya di Nigeria.
Lebih dari itu, media sosial adalah fenomena global tetapi tidak selalu terjadi dalam bahasa-bahasa “global”. Hal ini dapat membuat perusahaan media sosial berebut untuk menemukan moderator konten yang berbicara bahasa daerah untuk memberikan layanan secara global tanpa membuat pengguna rentan terhadap aktor jahat.
Contoh yang bagus adalah pemilik Facebook Meta. Perusahaan itu baru-baru ini dituntut oleh mantan moderator konten di Nairobi yang mengklaim bahwa moderator konten di area tersebut disesatkan untuk mengambil peran tersebut.
3. Moderator Sedang Berjalan di Atas Tali
Sebagian besar pengguna media sosial menginginkan dua hal: mereka ingin merasa aman dan ingin merasa bebas. Mencapai keseimbangan antara kedua keinginan ini adalah tugas rumit dari moderator konten.
Menyimpang terlalu jauh ke satu sisi, dan pengguna akan merasa diawasi. Menyimpang terlalu jauh ke sisi lain dan pengguna akan merasa ditinggalkan. Salah satu cara beberapa situs media sosial menyiasatinya adalah melalui moderator komunitas.
Moderator komunitas membantu menyatakan bahwa moderasi adalah sesuatu yang dilakukan karena hasrat untuk berpromosi wacana konstruktif tanpa membiarkan konten berbahaya daripada keluar dari keinginan untuk mengontrol atau menindas pengguna. Model ini menantang dalam skala besar, meskipun platform yang berbeda membuatnya bekerja dengan cara yang berbeda.
Parler kembali online setelah menyesuaikan kebijakan moderasi untuk mematuhi kebijakan pihak ketiga. Mereka memiliki semacam sistem juri komunitas yang kurang lebih hanya berperan setelah postingan yang berpotensi bermasalah telah dilaporkan. Memprioritaskan laporan pengguna adalah cara lain Parler membantu meringankan beban pada moderatornya.
4. Moderator Harus Mengikuti Garis Dinamis
Moderator konten juga beroperasi di tempat yang terasa seperti area abu-abu moral. Bahkan platform dengan tampilan moderasi yang lebih bebas berbicara memiliki aturan terhadap konten yang berpotensi berbahaya atau kekerasan. Beberapa postingan jelas berbahaya atau mengandung kekerasan, sementara yang lain mungkin tampak berbahaya atau berbahaya bagi sebagian pengguna (atau moderator) tetapi tidak bagi yang lain.
Banyak platform juga memiliki aturan terhadap aktivitas lain seperti menjual produk atau layanan. Ini bisa menjadi area yang lebih sulit untuk dinavigasi, terutama mengingat ukuran dan cakupan beberapa situs.
Mempertimbangkan apa yang dilakukan moderator komunitas Reddit. Setiap kali pengguna bergabung dengan komunitas baru, mereka segera dikirimi aturan untuk komunitas tersebut. Aturan tersebut juga diposting di samping setiap halaman komunitas. Hal ini memungkinkan setiap komunitas untuk memiliki subset aturan yang disesuaikan dengannya daripada aturan menyeluruh untuk seluruh situs.
Gagasan subreddit juga membantu Reddit menggunakan moderator komunitas dalam skala besar. Moderator bertugas memoderasi subreddit mereka daripada mencoba berpatroli di seluruh situs.
Akhirnya, media sosial bergerak sangat cepat. Saat Anda mendengar tentang kiriman yang bermasalah, mungkin setelah pengirim aslinya menghapusnya. Jika kiriman tersebut tidak dilaporkan saat sedang tayang, menanggapinya setelah fakta dapat menjadi rumit.
Dalam satu kasus di tahun 2015, sebuah postingan di situs media sosial YikYak dilaporkan ke polisi menggunakan versi yang telah diubah dari postingan aslinya, yang telah dihapus. Apa yang mungkin diselesaikan secara internal oleh moderator konten online menjadi drama hukum berkepanjangan yang membuat marah seluruh komunitas.
Banyak situs media sosial, termasuk Facebook, memilikinya kebijakan untuk melestarikan posting yang mencurigakan dalam hal mereka perlu dirujuk dalam situasi berkembang termasuk oleh penegak hukum.
Tetapi fitur-fitur seperti streaming langsung berarti konten naik saat itu terjadi, yang dapat dilewatkan oleh algoritme hingga terlambat.
Lempar Koin ke Moderator Anda
Jika Anda melihat sesuatu online yang membuat Anda khawatir, buka saluran yang disediakan untuk melaporkannya. Cobalah untuk menghindari kesal atau curiga karena memoderasi media sosial itu sulit. Hal yang sama berlaku jika Anda atau kiriman dilaporkan. Ini mungkin langkah yang bermaksud baik untuk menjaga keamanan pengguna media sosial.