Facebook Memberikan Tinjauan Baru tentang Upayanya untuk Memerangi Penyalahgunaan Rasis Secara Online Setelah Euro 2020
Diterbitkan: 2022-04-08Setelah insiden besar pelecehan rasis online lainnya, yang ditargetkan pada anggota tim sepak bola Inggris, Facebook telah memberikan gambaran baru tentang cara kerjanya untuk mengatasi serangan semacam itu, dan menghentikan orang-orang dari mengalami pelecehan berbasis ras di seluruh platformnya.
Menyusul kekalahan Inggris di final Kejuaraan Eropa pada hari Minggu, troll media sosial memposting ratusan komentar rasis, menyerang tiga pemain kulit hitam di tim sepak bola Inggris, termasuk penggunaan emoji sebagai elemen pelecehan. Sistem Instagram mana yang awalnya tidak menjadi perhatian - tetapi sekarang, saat ditinjau, Facebook telah memperbarui sistemnya, dan timnya, untuk memastikan bahwa itu mengatasi insiden serupa ke depan, sementara itu juga terlihat untuk meningkatkan prosesnya secara keseluruhan.
Seperti yang dijelaskan oleh Facebook:
“Kami terkejut dengan pelecehan rasis yang menjijikkan yang dialami beberapa anggota tim sepak bola Inggris setelah final Euro 2020 akhir pekan lalu. Ini adalah masalah yang sangat serius yang telah kami tangani selama bertahun-tahun, termasuk bekerja secara langsung dengan organisasi sepak bola dan hukum. pelaksanaan."
Memang, bahkan tahun ini, Facebook telah menghadapi tantangan serius di bidang ini, sekali lagi terkait dengan penggemar sepak bola Inggris.
Kembali di bulan Februari, Instagram tanpa disadari menjadi sumber dari berbagai insiden serangan berbasis ras terhadap pemain dari Manchester United, Chelsea dan Liverpool, antara lain, yang ditargetkan melalui Instagram Direct. Manchester United, dalam pernyataan bersama dengan Everton, Liverpool dan Manchester City , mengutuk insiden tersebut, dan meminta perusahaan induk Instagram, Facebook, untuk berbuat lebih banyak untuk melindungi pengguna dari hal tersebut, yang menyebabkan Instagram menerapkan hukuman yang lebih keras bagi mereka yang terbukti mengirimkan pelecehan melalui DM, dan opsi baru untuk akun pribadi untuk menonaktifkan DM dari orang yang tidak mereka ikuti.
Jelas, bagaimanapun, masih ada lebih banyak masalah untuk ditambahkan tentang ini. Dan sementara rasisme adalah masalah sosial, dan tidak terbatas pada platform sosial seperti itu, Facebook perlu memastikan bahwa itu tidak memberikan amplifikasi untuk hal yang sama, untuk melakukan bagiannya untuk mengurangi dampaknya.
Facebook dengan jelas menyatakan bahwa:
"Kami tidak mengizinkan serangan terhadap orang berdasarkan karakteristik yang dilindungi, yang mencakup ras, agama, kebangsaan, atau orientasi seksual. Jika kami mengetahui ada kata atau emoji yang digunakan untuk menyerang orang berdasarkan ras mereka, kami akan menghapusnya. karena melanggar kebijakan kami. Kami menerbitkan kebijakan ujaran kebencian di Standar Komunitas dan Pedoman Komunitas Instagram kami."
Masalah dalam insiden terbaru ini, seperti dicatat, adalah bahwa penggunaan emoji sebagai penanda rasis pada awalnya tidak diidentifikasi, yang diakui oleh kepala Instagram Adam Mosseri.
Kami memiliki teknologi untuk mencoba dan memprioritaskan laporan, dan kami salah menandai beberapa di antaranya sebagai komentar ramah, padahal sebenarnya tidak. Masalah ini telah ditangani, dan publikasi memiliki semua konteks ini.
— Adam Mosseri ???? (@mosseri) 14 Juli 2021
Facebook menjelaskan bahwa mereka mengidentifikasi ujaran kebencian dengan menggunakan kombinasi kecerdasan buatan dan tinjauan manusia.
"AI membantu kami memprioritaskan laporan untuk peninjau kami dan mengambil tindakan otomatis jika diperlukan. Antara Januari dan Maret 2021, kami menghapus lebih dari 25 juta konten ujaran kebencian dari Facebook - hampir 97% sebelum seseorang melaporkannya kepada kami. Dan di Instagram , kami mengambil tindakan terhadap 6,3 juta konten, 93% sebelum seseorang melaporkannya kepada kami."

Yang merupakan tingkat hasil yang baik, tetapi seperti yang ditunjukkan oleh insiden terbaru ini, masih ada kalanya sistem ini tidak dapat menangkap semuanya. Yang, seperti dicatat lebih lanjut oleh Mosseri, juga merupakan tantangan skala.
Karena skala kami. Kami menangani jutaan atau laporan setiap hari. Jika kita membuat kesalahan pada satu persen dari mereka, itu adalah puluhan ribu kesalahan. Kita perlu, dan akan terus melakukan, lebih baik, tetapi akan selalu ada beberapa kesalahan.
— Adam Mosseri ???? (@mosseri) 15 Juli 2021
Secara realistis, tidak ada cara untuk sepenuhnya menghapusnya, tetapi Facebook berupaya memastikannya memperbarui sistemnya secara real-time, saat kasus terdeteksi, agar bekerja lebih cepat untuk memerangi penyalahgunaan dan membatasi paparan.
"Orang-orang benar-benar frustrasi ketika mereka melaporkan posting dan diberi tahu secara tidak benar bahwa komentar kebencian dengan emoji tertentu tidak melanggar aturan kami. Itu karena AI kami tidak memahami konteksnya - dan itu kesalahan. Kami telah pindah cepat untuk memperbaikinya melalui peningkatan terbaru pada teknologi kami. Kami akan terus mengerjakan ini sehingga kami dapat menghapus emoji yang melanggar dari platform kami lebih cepat."
Ini adalah keseimbangan yang sangat sulit, dan tidak ada yang memiliki semua jawaban. Berbagai kelompok pengatur, misalnya, telah mengusulkan hukuman yang lebih keras untuk platform sosial yang gagal untuk mengatasinya secara tepat waktu. Masalahnya adalah, apa yang dianggap 'tepat waktu' akan berbeda hampir setiap kasus.
Haruskah Instagram mengambil penyalahgunaan emoji lebih cepat? Ya - tetapi sistem otomatisnya tidak mengidentifikasi ini sebagai masalah. Karena tidak, sampai itu terjadi, dan tidak ada yang bisa mengantisipasi seperti itu sampai semuanya terlambat.
Salah satu cara yang mungkin untuk mengatasi hal ini adalah dengan memberlakukan persyaratan ID yang lebih ketat pada individu ketika mereka mendaftar untuk akun media sosial, yang akan memudahkan untuk mengidentifikasi pelanggar. Jika ada ancaman jalur hukum dunia nyata untuk tindakan online Anda, itu bisa menjadi ancaman yang cukup untuk membuat pengguna mempertimbangkan kembali tindakan mereka.
Tetapi Facebook mengatakan ini juga belum tentu jalan ke depan:
"Ada risiko dengan verifikasi ID, terutama pengecualian kelompok - terutama kelompok yang kurang beruntung - yang tidak memiliki akses mudah ke bentuk identifikasi resmi. Pemodelan terbaru dari Komisi Pemilihan memperkirakan bahwa 11 juta orang di Inggris tidak memilikinya. SIM atau paspor, dan kelompok ini kemungkinan besar berasal dari latar belakang yang kurang beruntung."
Yang merupakan poin yang valid, dan sekali lagi memberikan lebih banyak ruang lingkup untuk tantangan sebelumnya, dan semua platform online, dalam hal ini.
Ini adalah tantangan yang sulit, tetapi penting, dan yang ditanggapi dengan sangat serius oleh Facebook. Idealnya, solusi dapat ditemukan untuk mengatasi masalah utama ini, tetapi secara realistis, akan selalu ada tingkat penyalahgunaan, apa pun tindakan yang diterapkan.
Dan sekali lagi, pada skala Facebook, bahkan margin kesalahan yang kecil dapat berarti dampak yang besar.
Mudah-mudahan, seiring berkembangnya sistem otomatis, lebih banyak alat dapat diterapkan untuk menjaga lingkungan yang aman bagi semua.