L'impatto dei contenuti tossici e dannosi sui marchi, sui loro team e sui clienti

Pubblicato: 2023-01-19

La tossicità online può essere dannosa per i marchi, incidendo sul benessere del loro personale in prima linea e creando un reale impatto commerciale per i marchi se i loro clienti ne sono esposti. Quindi, come possono le aziende lavorare per alleviare gli effetti negativi?

Qui, Matthieu Boutard, presidente e co-fondatore di Bodyguard.ai, delinea i vantaggi e le sfide della moderazione dei contenuti ed esplora come le aziende possono adottare un approccio misto per ottenere i migliori risultati.

Con l'Online Safety Bill che entrerà nella legge del Regno Unito nei prossimi mesi, è stata prestata molta attenzione all'impatto negativo dei social media sui suoi utenti.

L'obiettivo del disegno di legge è quello di mantenere l'impegno del manifesto del governo per rendere il Regno Unito il posto più sicuro al mondo per essere online. Tuttavia, sarà necessario raggiungere un equilibrio critico per raggiungere questo obiettivo in modo efficace.

Secondo il Dipartimento per il digitale, la cultura, i media e lo sport (DCMS), mira a mantenere i bambini al sicuro, fermare l'odio razziale e proteggere la democrazia online, garantendo allo stesso tempo che le persone nel Regno Unito possano esprimersi liberamente e partecipare a un dibattito pluralistico e solido .

Il disegno di legge imporrà nuovi obblighi alle organizzazioni per rimuovere contenuti illegali o dannosi. Inoltre, le aziende che non rispettano queste nuove regole potrebbero incorrere in multe fino a 18 milioni di sterline o al 10% del loro fatturato globale annuo, a seconda di quale sia la più alta.

Tali misure possono sembrare drastiche, ma stanno diventando sempre più necessarie. La tossicità online è diffusa e copre tutti i canali di comunicazione, dai social media alla chat di gioco.

Nell'esplorare l'entità del problema, abbiamo recentemente pubblicato un white paper inaugurale che esamina la tossicità online rivolta ad aziende e marchi nei 12 mesi che si sono conclusi a luglio 2022.

Durante questo processo abbiamo analizzato oltre 170 milioni di contenuti su 1.200 canali brand in sei lingue, scoprendo che fino al 5,24% di tutti i contenuti generati dalle community online è tossico. Infatti, il 3,28% potrebbe essere classificato come odioso (insulti, odio, misoginia, minacce, razzismo, ecc.), mentre l'1,96% potrebbe essere classificato come spazzatura (truffe, frodi, trolling, ecc.).

Tre sfide chiave della moderazione dei contenuti

Sfortunatamente, la crescente prevalenza dell'odio online e dei contenuti tossici si infiltra sempre più nei canali di comunicazione basati sui marchi come forum dei clienti, pagine di social media e bacheche.

Per i marchi, questo può avere un impatto commerciale significativo. In effetti, uno studio suggerisce che ben quattro consumatori su 10 abbandoneranno una piattaforma dopo la loro prima esposizione a un linguaggio dannoso. Inoltre, possono condividere la loro scarsa esperienza con altri, creando un effetto domino di danni irreparabili al marchio.

È quindi importante che i marchi moderino i loro contenuti sui social media per rimuovere i commenti tossici. Tuttavia, farlo in modo efficace non è un compito facile e ci sono diverse sfide potenziali.

In primo luogo, può essere un'attività ad alta intensità di risorse e gravosa da completare manualmente. Un moderatore umano addestrato in genere ha bisogno di 10 secondi per analizzare e moderare un singolo commento.

Pertanto, se ci sono centinaia o migliaia di commenti pubblicati contemporaneamente, può diventare un compito impossibile gestire il flusso di commenti odiosi in tempo reale. Di conseguenza, molti moderatori di contenuti sono lasciati mentalmente esausti dal volume di lavoro.

Inoltre, essere ripetutamente esposti a parolacce, video tossici e contenuti dannosi può avere un effetto psicologico sui moderatori. In effetti, la salute mentale di questi individui non può essere trascurata, mentre un ulteriore esaurimento dovuto alla tossicità può essere costoso per le aziende, accelerando potenzialmente il turnover dei dipendenti.

In terzo luogo, le aziende devono seguire una linea sottile durante la moderazione per assicurarsi di non essere accusate di censura. I canali di marca come i social media sono spesso una fonte primaria per i clienti che interagiscono con i marchi, fornendo il loro feedback e tenendo conto dei marchi. Anche quelli che danno l'impressione che stiano semplicemente cancellando eventuali commenti critici o negativi possono essere presi di mira.

Un approccio misto per risultati equilibrati

Fortunatamente, le tecnologie basate sull'intelligenza artificiale e sull'apprendimento automatico stanno iniziando ad affrontare alcune delle sfide che devono affrontare i moderatori umani. Tuttavia, ci sono ulteriori problemi che devono essere appianati qui.

È stato dimostrato che gli algoritmi di apprendimento automatico attualmente utilizzati da piattaforme social come Facebook e Instagram hanno un tasso di errore che può raggiungere il 40%. Di conseguenza, solo il 62,5% dei contenuti che incitano all'odio viene attualmente rimosso dai social network secondo la Commissione europea, lasciando là fuori grandi volumi di contenuti non moderati che possono facilmente avere un impatto su persone e aziende.

Inoltre, questi algoritmi faticano anche a gestire la delicata questione della libertà di espressione. Non avendo la capacità di rilevare le sottigliezze linguistiche, possono sporgersi troppo dalla parte della censura poiché gli algoritmi sono inclini a reagire in modo eccessivo.

Poiché sia ​​la moderazione umana che le soluzioni guidate dall'intelligenza artificiale hanno i loro limiti, è necessario un approccio misto. In effetti, combinando l'apprendimento automatico intelligente con un team umano composto da linguisti, controllori di qualità e programmatori, i marchi saranno ben posizionati per rimuovere i commenti di odio in modo più rapido ed efficace.

Naturalmente, selezionare la soluzione giusta qui sarà la chiave. Idealmente, i marchi dovrebbero cercare di adottare una soluzione sufficientemente avanzata da riconoscere le differenze tra amici che interagiscono con un linguaggio "colorato" e commenti ostili rivolti a un marchio.

Raggiungere questo equilibrio è vitale. Per incoraggiare il coinvolgimento e creare fiducia nelle interazioni online, è fondamentale che i marchi lavorino per garantire che la tossicità non inquini i canali di comunicazione, fornendo al contempo ai consumatori una piattaforma per criticare e discutere.

Per fortuna, con il giusto approccio, la moderazione può essere efficace. In effetti, non dovrebbe trattarsi di vietare la libertà di espressione, ma impedire che i contenuti tossici raggiungano i potenziali destinatari per rendere Internet un luogo più sicuro per tutti.