Wpływ toksycznych i szkodliwych treści na marki, ich zespoły i klientów
Opublikowany: 2023-01-19Toksyczność w Internecie może być szkodliwa dla marek, wpływając na samopoczucie ich personelu pierwszej linii i wywierając rzeczywisty wpływ komercyjny na marki, jeśli ich klienci są na nią narażeni. Jak więc firmy mogą działać, aby złagodzić negatywne skutki?
Tutaj Matthieu Boutard, prezes i współzałożyciel Bodyguard.ai, przedstawia korzyści i wyzwania związane z moderacją treści oraz bada, w jaki sposób firmy mogą przyjąć mieszane podejście, aby osiągnąć najlepsze wyniki.
Ponieważ ustawa o bezpieczeństwie online ma wejść w życie w Wielkiej Brytanii w nadchodzących miesiącach, wiele uwagi poświęcono negatywnemu wpływowi mediów społecznościowych na ich użytkowników.
Celem projektu ustawy jest wywiązanie się z manifestu rządowego, aby uczynić Wielką Brytanię najbezpieczniejszym miejscem na świecie do korzystania z Internetu. Jednak aby skutecznie to osiągnąć, będzie musiał znaleźć krytyczną równowagę.
Według Departamentu ds. Cyfryzacji, Kultury, Mediów i Sportu (DCMS) ma on na celu zapewnienie dzieciom bezpieczeństwa, powstrzymanie nienawiści rasowej i ochronę demokracji w Internecie, przy jednoczesnym zapewnieniu obywatelom Wielkiej Brytanii swobodnego wyrażania się i uczestniczenia w pluralistycznej i solidnej debacie .
Ustawa nałoży na organizacje nowe obowiązki w zakresie usuwania nielegalnych lub szkodliwych treści. Ponadto firmy, które nie zastosują się do tych nowych przepisów, mogą zostać ukarane grzywną w wysokości do 18 milionów funtów lub 10% ich rocznego światowego obrotu – w zależności od tego, która z tych kwot jest wyższa.
Takie środki mogą wydawać się drastyczne, ale stają się coraz bardziej konieczne. Toksyczność online jest wszechobecna i obejmuje wszystkie kanały komunikacji, od mediów społecznościowych po czat w grze.
Badając zakres problemu, niedawno opublikowaliśmy inauguracyjną białą księgę badającą toksyczność online skierowaną do firm i marek w ciągu 12 miesięcy, które zakończyły się w lipcu 2022 r.
Podczas tego procesu przeanalizowaliśmy ponad 170 milionów treści w 1200 kanałach firmowych w sześciu językach i stwierdziliśmy, że aż 5,24% wszystkich treści generowanych przez społeczności internetowe jest toksycznych. Rzeczywiście, 3,28% można sklasyfikować jako nienawistne (zniewagi, nienawiść, mizoginia, groźby, rasizm itp.), podczas gdy 1,96% można sklasyfikować jako śmieci (oszustwa, oszustwa, trolling itp.).
Trzy kluczowe wyzwania związane z moderacją treści
Niestety, coraz częstsze występowanie nienawiści i toksycznych treści online w coraz większym stopniu przenika do kanałów komunikacji opartych na markach, takich jak fora klientów, strony w mediach społecznościowych i fora dyskusyjne.
Dla marek może to mieć znaczący wpływ komercyjny. Rzeczywiście, jedno z badań sugeruje, że aż czterech na dziesięciu konsumentów opuści platformę po pierwszym kontakcie ze szkodliwym językiem. Co więcej, mogą dzielić się swoimi złymi doświadczeniami z innymi, tworząc efekt domina i nieodwracalne szkody dla marki.
Dlatego ważne jest, aby marki moderowały swoje treści w mediach społecznościowych, aby usuwać toksyczne komentarze. Jednak skuteczne robienie tego nie jest łatwym zadaniem i istnieje kilka potencjalnych wyzwań.
Po pierwsze, ręczne wykonanie może być zadaniem wymagającym dużej ilości zasobów i opodatkowania. Przeszkolony moderator potrzebuje zwykle 10 sekund na przeanalizowanie i moderację pojedynczego komentarza.

Dlatego jeśli w tym samym czasie publikowane są setki lub tysiące komentarzy, zarządzanie przepływem nienawistnych komentarzy w czasie rzeczywistym może stać się zadaniem niemożliwym do wykonania. W rezultacie wielu moderatorów treści jest psychicznie wyczerpanych ilością pracy.
Ponadto wielokrotne narażenie na wulgarny język, toksyczne filmy i szkodliwe treści może mieć psychologiczny wpływ na moderatorów. Rzeczywiście, nie można przeoczyć zdrowia psychicznego tych osób, podczas gdy dalsze wypalenie spowodowane toksycznością może być kosztowne dla firm, potencjalnie przyspieszając rotację pracowników.
Po trzecie, firmy muszą zachować cienką granicę podczas moderowania, aby upewnić się, że nie zostaną oskarżone o cenzurę. Kanały związane z marką, takie jak media społecznościowe, są często głównym źródłem interakcji klientów z markami, przekazywania opinii i rozliczania marek. Te, które sprawiają wrażenie, że po prostu usuwają wszelkie krytyczne lub negatywne komentarze, również mogą znaleźć się pod ostrzałem.
Mieszane podejście do zrównoważonych wyników
Na szczęście technologie oparte na sztucznej inteligencji i uczeniu maszynowym zaczynają rozwiązywać niektóre wyzwania stojące przed ludzkimi moderatorami. Istnieją jednak dalsze kwestie, które należy tutaj rozwiązać.
Wykazano, że algorytmy uczenia maszynowego używane obecnie przez platformy społecznościowe, takie jak Facebook i Instagram, mają wskaźnik błędów, który może sięgać nawet 40%. W rezultacie według Komisji Europejskiej tylko 62,5% treści szerzących nienawiść jest obecnie usuwanych z sieci społecznościowych, pozostawiając duże ilości niemoderowanych treści, które mogą łatwo wpłynąć na ludzi i firmy.
Co więcej, algorytmy te mają również trudności z zarządzaniem delikatną kwestią wolności słowa. Nie mając zdolności wykrywania subtelności językowych, mogą zbytnio skłaniać się ku cenzurze, ponieważ algorytmy mają skłonność do przesadnej reakcji.
Ponieważ zarówno moderacja ludzi, jak i rozwiązania oparte na sztucznej inteligencji mają swoje ograniczenia, wymagane jest podejście mieszane. Rzeczywiście, łącząc inteligentne uczenie maszynowe z ludzkim zespołem składającym się z lingwistów, kontrolerów jakości i programistów, marki będą w stanie szybciej i skuteczniej usuwać nienawistne komentarze.
Oczywiście wybór odpowiedniego rozwiązania będzie tutaj kluczowy. W idealnej sytuacji marki powinny dążyć do przyjęcia rozwiązania, które jest wystarczająco zaawansowane, aby rozpoznawać różnice między znajomymi wchodzącymi w interakcję z „kolorowym” językiem a wrogimi komentarzami skierowanymi pod adresem marki.
Zachowanie tej równowagi jest kluczowe. Aby zachęcić do zaangażowania i budować zaufanie w interakcjach online, marki muszą pracować nad tym, aby toksyczność nie zanieczyszczała kanałów komunikacji, jednocześnie zapewniając konsumentom platformę do krytyki i debaty.
Na szczęście przy odpowiednim podejściu moderacja może być skuteczna. Rzeczywiście, nie powinno chodzić o zakazanie wolności słowa, ale o zapobieganie przedostawaniu się toksycznych treści do potencjalnych odbiorców, aby internet był bezpieczniejszym miejscem dla wszystkich.