Facebook przedstawia nowy przegląd swoich wysiłków na rzecz zwalczania rasistowskich nadużyć w Internecie w związku z Euro 2020

Opublikowany: 2022-04-08

Po kolejnym poważnym incydencie o rasistowskim nadużyciu w Internecie, wymierzonym w członków angielskiej drużyny piłkarskiej, Facebook przedstawił nowy przegląd tego, jak radzi sobie z takimi atakami i powstrzymuje ludzi przed doświadczaniem przemocy na tle rasowym na swoich platformach.

Po przegranej Anglii w finale Mistrzostw Europy w niedzielę, trolle z mediów społecznościowych opublikowały setki rasistowskich uwag, atakując trzech czarnych graczy z drużyny piłkarskiej Anglii, w tym używanie emotikonów jako elementu nadużycia. Które systemy Instagrama początkowo nie wzbudziły obaw – ale teraz, po przeglądzie, Facebook zaktualizował swoje systemy i zespoły, aby upewnić się, że rozwiązuje podobne incydenty w przyszłości, jednocześnie starając się poprawić ogólne procesy.

Jak wyjaśnił Facebook:

„Jesteśmy zbulwersowani odrażającymi rasistowskimi nadużyciami, jakich doświadczyli niektórzy członkowie angielskiej drużyny piłkarskiej po finale Euro 2020 w ostatni weekend. To niezwykle poważna sprawa, nad którą pracowaliśmy od lat, która obejmowała bezpośrednią współpracę z organizacjami piłkarskimi i prawem egzekwowanie."

Rzeczywiście, nawet w tym roku Facebook stanął przed poważnymi wyzwaniami na tym froncie, ponownie związanymi z fanami piłki nożnej w Wielkiej Brytanii.

W lutym Instagram nieświadomie stał się źródłem różnych incydentów rasistowskich ataków na piłkarzy m.in. Manchesteru United, Chelsea i Liverpoolu, których celem było Instagram Direct. Manchester United we wspólnym oświadczeniu z Evertonem, Liverpoolem i Manchesterem City potępił incydenty i wezwał firmę macierzystą Instagrama, Facebooka, aby zrobiła więcej w celu ochrony użytkowników przed takimi zdarzeniami, co doprowadziło do tego, że Instagram wprowadził surowsze kary dla tych, którzy wysyłają nadużycia za pośrednictwem DM i nowa opcja dla kont osobistych, aby wyłączyć DM od osób, których nie śledzą.

Oczywiście jest jednak jeszcze więcej kwestii do dodania. I chociaż rasizm jest problemem społecznym i nie ogranicza się do platform społecznościowych jako takich, Facebook musi upewnić się, że nie wzmacnia tego samego, aby przyczynić się do zmniejszenia jego wpływu.

Facebook wyraźnie stwierdza, że:

„Nie zezwalamy na ataki na ludzi na podstawie ich chronionych cech, które obejmują rasę, religię, narodowość lub orientację seksualną. Jeśli dowiemy się, że jakiekolwiek słowa lub emotikony są używane do atakowania ludzi ze względu na ich rasę, usuwamy je ponieważ naruszają nasze zasady. Nasze zasady dotyczące szerzenia nienawiści publikujemy w naszych Standardach społeczności i Wytycznych dla społeczności Instagrama”.

Jak wspomniano, problem w tym ostatnim incydencie polegał na tym, że użycie emoji jako znacznika rasizmu nie zostało początkowo zidentyfikowane, co przyznał szef Instagrama Adam Mosseri.

Facebook wyjaśnia, że ​​identyfikuje mowę nienawiści, wykorzystując kombinację sztucznej inteligencji i ludzkiej oceny.

„Sztuczna inteligencja pomaga nam ustalać priorytety raportów dla naszych recenzentów i podejmować zautomatyzowane działania w razie potrzeby. Między styczniem a marcem 2021 roku usunęliśmy z Facebooka ponad 25 milionów fragmentów treści szerzących nienawiść – prawie 97%, zanim ktoś nam to zgłosił. I na Instagramie , podjęliśmy działania na 6,3 miliona elementów treści, 93%, zanim ktoś nam to zgłosił”.

To dobry wskaźnik wyników, ale jak pokazuje ten ostatni incydent, wciąż zdarzają się sytuacje, w których te systemy nie będą w stanie wszystkiego wyłapać. Co, jak dalej zauważa Mosseri, jest również wyzwaniem skali.

Realistycznie rzecz biorąc, nie ma sposobu, aby całkowicie je wyeliminować, ale Facebook pracuje nad tym, aby aktualizować swoje systemy w czasie rzeczywistym, gdy zostaną wykryte przypadki, aby działać szybciej w celu zwalczania nadużyć i ograniczania narażenia.

„Ludzie słusznie byli sfrustrowani, gdy zgłaszali posty i otrzymywali niepoprawne informacje, że nienawistne komentarze z niektórymi emotikonami nie łamią naszych zasad. To dlatego, że nasza sztuczna inteligencja nie zrozumiała kontekstu – i to jest błąd. szybko rozwiązać ten problem dzięki niedawnym ulepszeniom naszej technologii. Będziemy nadal nad tym pracować, aby szybciej usuwać naruszające zasady emoji z naszej platformy”.

To bardzo trudna równowaga i nikt nie zna wszystkich odpowiedzi. Różne grupy regulacyjne proponowały na przykład surowsze kary dla platform społecznościowych, które nie rozwiązują tego problemu w odpowiednim czasie. Problem polega na tym, że to, co jest uważane za „terminowe”, będzie się różnić niemal w każdym przypadku.

Czy Instagram powinien wcześniej wskazać niewłaściwe użycie emotikonów? Tak – ale jej zautomatyzowane systemy nie zidentyfikowały tego jako problemu. Bo tak nie było, dopóki nie było, i nikt nie mógł tego koniecznie przewidzieć, dopóki nie było za późno.

Jednym z możliwych sposobów rozwiązania tego problemu może być nałożenie surowszych wymagań dotyczących tożsamości na osoby, które rejestrują konta w mediach społecznościowych, co ułatwiłoby identyfikację przestępców. Jeśli istnieje groźba, że ​​Twoje działania online zostaną odwołane w prawdziwym świecie, może to wystarczyć, aby użytkownicy ponownie rozważyli swoje działania.

Ale Facebook twierdzi, że to też niekoniecznie jest droga naprzód:

„Istnieje ryzyko związane z weryfikacją tożsamości, przede wszystkim wykluczeniem grup – szczególnie grup w niekorzystnej sytuacji – które nie mają łatwego dostępu do oficjalnych form identyfikacji. Najnowsze modelowanie Komisji Wyborczej szacuje, że 11 milionów osób w Wielkiej Brytanii nie ma prawo jazdy lub paszport i że ta grupa częściej pochodzi ze środowisk defaworyzowanych”.

Co jest słusznym punktem i po raz kolejny daje więcej możliwości co do stojącego przed nim wyzwania i wszystkich platform internetowych w tym zakresie.

To trudne, ale ważne wyzwanie, które Facebook traktuje bardzo poważnie. Idealnie byłoby znaleźć rozwiązanie, które rozwiązuje te kluczowe problemy, ale realistycznie zawsze będzie pewien poziom nadużyć, bez względu na to, jakie środki zostaną wdrożone.

I znowu, w skali Facebooka, nawet niewielki margines błędu może oznaczać duży wpływ.

Mamy nadzieję, że wraz z rozwojem zautomatyzowanych systemów będzie można wprowadzić więcej narzędzi w celu utrzymania bezpiecznego środowiska dla wszystkich.