Impactul conținutului toxic și dăunător asupra mărcilor, echipelor și clienților acestora

Publicat: 2023-01-19

Toxicitatea online poate fi dăunătoare pentru mărci, afectând bunăstarea personalului lor din prima linie și creând un impact comercial real pentru mărci dacă clienții lor sunt expuși la aceasta. Deci, cum pot companiile să lucreze pentru a atenua efectele negative?

Aici, Matthieu Boutard, președinte și co-fondator al Bodyguard.ai, subliniază beneficiile și provocările moderarii conținutului și explorează modul în care companiile pot adopta o abordare mixtă pentru a obține cele mai bune rezultate.

Având în vedere că Legea privind siguranța online urmează să intre în legislația Regatului Unit în lunile următoare, s-a acordat multă atenție impactului negativ al rețelelor sociale asupra utilizatorilor săi.

Scopul proiectului de lege este de a respecta angajamentul manifest al guvernului de a face din Marea Britanie cel mai sigur loc din lume pentru a fi online. Cu toate acestea, va trebui să atingă un echilibru critic pentru a realiza acest lucru în mod eficient.

Potrivit Departamentului pentru Digital, Cultură, Media și Sport (DCMS), acesta își propune să mențină copiii în siguranță, să oprească ura rasială și să protejeze democrația online, asigurând în același timp că oamenii din Regatul Unit se pot exprima liber și pot participa la dezbateri pluraliste și robuste. .

Proiectul de lege va impune noi obligații organizațiilor de a elimina conținutul ilegal sau dăunător. În plus, firmele care nu respectă aceste noi reguli s-ar putea confrunta cu amenzi de până la 18 milioane de lire sterline sau 10% din cifra de afaceri globală anuală – oricare dintre acestea este cea mai mare.

Asemenea măsuri pot părea drastice, dar devin din ce în ce mai necesare. Toxicitatea online este răspândită, acoperind toate canalele de comunicare, de la rețelele sociale până la chat-ul din joc.

În explorarea amplorii problemei, am publicat recent o lucrare albă inaugurală care examinează toxicitatea online care vizează companiile și mărcile în cele 12 luni care s-au încheiat în iulie 2022.

În timpul acestui proces, am analizat peste 170 de milioane de conținut pe 1.200 de canale de brand în șase limbi, constatând că până la 5,24% din tot conținutul generat de comunitățile online este toxic. Într-adevăr, 3,28% ar putea fi clasificate ca fiind instigatoare la ură (insulte, ură, misoginie, amenințări, rasism etc.), în timp ce 1,96% ar putea fi clasificate ca junk (escrocherii, fraude, trolling etc.).

Trei provocări cheie ale moderarii conținutului

Din păcate, prevalența tot mai mare a urii online și a conținutului toxic se infiltrează din ce în ce mai mult în canalele de comunicare bazate pe mărci, cum ar fi forumurile pentru clienți, paginile de rețele sociale și panourile de mesaje.

Pentru mărci, acest lucru poate avea un impact comercial semnificativ. Într-adevăr, un studiu sugerează că până la patru din 10 consumatori vor părăsi o platformă după prima expunere la un limbaj dăunător. În plus, ei pot împărtăși cu alții experiența lor slabă, creând un efect de domino de deteriorare ireparabilă a mărcii.

Prin urmare, este important ca mărcile să își modereze conținutul din rețelele sociale pentru a elimina comentariile toxice. Cu toate acestea, a face acest lucru în mod eficient nu este o sarcină ușoară și există mai multe provocări potențiale.

În primul rând, poate fi o sarcină care necesită foarte multă resurse și o sarcină dificilă de finalizat manual. Un moderator uman instruit are nevoie de obicei de 10 secunde pentru a analiza și modera un singur comentariu.

Prin urmare, dacă există sute sau mii de comentarii postate în același timp, poate deveni o sarcină imposibilă gestionarea fluxului de comentarii pline de ură în timp real. În consecință, mulți moderatori de conținut sunt epuizați mental din cauza volumului de muncă.

În plus, expunerea în mod repetat la un limbaj rău, videoclipuri toxice și conținut dăunător poate avea un efect psihologic asupra moderatorilor. Într-adevăr, sănătatea mintală a acestor persoane nu poate fi trecută cu vederea, în timp ce epuizarea suplimentară din cauza toxicității poate fi costisitoare pentru afaceri, accelerând potențial schimbarea de afaceri a angajaților.

În al treilea rând, companiile trebuie să treacă pe linia fine atunci când moderează pentru a se asigura că nu sunt acuzate de cenzură. Canalele de marcă, cum ar fi rețelele sociale, sunt adesea o sursă principală pentru clienții care interacționează cu mărcile, furnizând feedback-ul lor și ținând la răspundere mărcile. Cei care dau impresia că pur și simplu șterg orice comentarii critice sau negative pot fi, de asemenea, criticați.

O abordare mixtă pentru rezultate echilibrate

Din fericire, AI și tehnologiile bazate pe învățarea automată încep să abordeze unele dintre provocările cu care se confruntă moderatorii umani. Cu toate acestea, există alte probleme care trebuie rezolvate aici.

S-a demonstrat că algoritmii de învățare automată utilizați în prezent de platformele sociale precum Facebook și Instagram au o rată de eroare care poate fi de până la 40%. Drept urmare, doar 62,5% din conținutul instigator la ură este în prezent eliminat din rețelele sociale, conform Comisiei Europene, lăsând acolo volume mari de conținut nemoderat care pot afecta cu ușurință oamenii și afacerile.

În plus, acești algoritmi se luptă să gestioneze problema sensibilă a libertății de exprimare. În lipsa capacității de a detecta subtilitățile lingvistice, aceștia se pot înclina prea departe de partea cenzurii, deoarece algoritmii sunt predispuși să reacționeze exagerat.

Cu atât moderarea umană, cât și soluțiile bazate pe inteligență artificială având limitările lor, este necesară o abordare mixtă. Într-adevăr, combinând învățarea automată inteligentă cu o echipă umană formată din lingviști, controlori de calitate și programatori, mărcile vor fi bine plasate pentru a elimina comentariile de ură mai rapid și mai eficient.

Desigur, selectarea soluției potrivite aici va fi esențială. În mod ideal, mărcile ar trebui să caute să adopte o soluție suficient de avansată pentru a recunoaște diferențele dintre prietenii care interacționează cu un limbaj „colorat” și comentariile ostile îndreptate către o marcă.

Atingerea acestui echilibru este vitală. Pentru a încuraja implicarea și pentru a construi încrederea în interacțiunile online, este esențial ca mărcile să lucreze pentru a se asigura că toxicitatea nu poluează canalele de comunicare, oferind, de asemenea, consumatorilor o platformă de critica și dezbatere.

Din fericire, cu abordarea corectă, moderarea poate fi eficientă. Într-adevăr, nu ar trebui să fie vorba de interzicerea libertății de exprimare, ci de prevenirea conținutului toxic să ajungă la potențiali destinatari, pentru a face internetul un loc mai sigur pentru toată lumea.