O impacto do conteúdo tóxico e nocivo nas marcas, suas equipes e clientes

Publicados: 2023-01-19

A toxicidade online pode ser prejudicial para as marcas, afetando o bem-estar de sua equipe de linha de frente e criando um impacto comercial real para as marcas se seus clientes forem expostos a ela. Então, como as empresas podem trabalhar para aliviar os efeitos negativos?

Aqui, Matthieu Boutard, presidente e cofundador da Bodyguard.ai, descreve os benefícios e desafios da moderação de conteúdo e explora como as empresas podem adotar uma abordagem combinada para obter os melhores resultados.

Com a Lei de Segurança Online definida para entrar na lei do Reino Unido nos próximos meses, muita atenção tem sido dada ao impacto negativo da mídia social em seus usuários.

O objetivo do projeto de lei é cumprir o compromisso do manifesto do governo de tornar o Reino Unido o lugar mais seguro do mundo para se estar online. No entanto, será necessário encontrar um equilíbrio crítico para alcançar isso de forma eficaz.

De acordo com o Departamento de Digital, Cultura, Mídia e Esporte (DCMS), visa manter as crianças seguras, acabar com o ódio racial e proteger a democracia online, garantindo igualmente que as pessoas no Reino Unido possam se expressar livremente e participar de debates pluralistas e robustos. .

O projeto de lei colocará novas obrigações sobre as organizações para remover conteúdo ilegal ou prejudicial. Além disso, as empresas que não cumprirem essas novas regras podem enfrentar multas de até £ 18 milhões ou 10% de seu faturamento global anual – o que for maior.

Tais medidas podem parecer drásticas, mas estão se tornando cada vez mais necessárias. A toxicidade online é abundante, abrangendo todos os canais de comunicação, desde a mídia social até o bate-papo no jogo.

Ao explorar a extensão do problema, publicamos recentemente um whitepaper inaugural examinando a toxicidade online voltada para empresas e marcas nos 12 meses que terminaram em julho de 2022.

Durante esse processo, analisamos mais de 170 milhões de conteúdos em 1.200 canais de marca em seis idiomas, descobrindo que até 5,24% de todo o conteúdo gerado por comunidades online é tóxico. De fato, 3,28% podem ser classificados como odiosos (insultos, ódio, misoginia, ameaças, racismo etc.), enquanto 1,96% podem ser classificados como lixo (golpes, fraudes, trollagem etc.).

Três principais desafios da moderação de conteúdo

Infelizmente, a crescente prevalência de ódio online e conteúdo tóxico está se infiltrando cada vez mais nos canais de comunicação baseados em marcas, como fóruns de clientes, páginas de mídia social e quadros de mensagens.

Para as marcas, isso pode ter um impacto comercial significativo. De fato, um estudo sugere que até quatro em cada dez consumidores deixarão uma plataforma após sua primeira exposição a linguagem prejudicial. Além disso, eles podem compartilhar sua experiência ruim com outras pessoas, criando um efeito dominó de danos irreparáveis ​​à marca.

Portanto, é importante que as marcas moderem seu conteúdo de mídia social para remover comentários tóxicos. No entanto, fazer isso de forma eficaz não é uma tarefa fácil e há vários desafios potenciais.

Em primeiro lugar, pode ser uma tarefa altamente trabalhosa e desgastante para ser concluída manualmente. Um moderador humano treinado normalmente precisa de 10 segundos para analisar e moderar um único comentário.

Portanto, se houver centenas ou milhares de comentários postados ao mesmo tempo, pode se tornar uma tarefa impossível gerenciar o fluxo de comentários odiosos em tempo real. Conseqüentemente, muitos moderadores de conteúdo ficam mentalmente exaustos com o volume de trabalho.

Além disso, ser repetidamente exposto a linguagem imprópria, vídeos tóxicos e conteúdo nocivo pode ter um efeito psicológico nos moderadores. De fato, a saúde mental desses indivíduos não pode ser negligenciada, enquanto o esgotamento adicional devido à toxicidade pode ser caro para as empresas, potencialmente acelerando a rotatividade de funcionários.

Em terceiro lugar, as empresas precisam seguir uma linha tênue ao moderar para garantir que não sejam acusadas de censura. Os canais de marca, como as mídias sociais, costumam ser uma fonte primária para os clientes se envolverem com as marcas, fornecendo feedback e responsabilizando as marcas. Aqueles que dão a impressão de que estão simplesmente excluindo comentários críticos ou negativos também podem ser criticados.

Uma abordagem combinada para resultados equilibrados

Felizmente, as tecnologias baseadas em IA e aprendizado de máquina estão começando a enfrentar alguns dos desafios enfrentados pelos moderadores humanos. No entanto, há outras questões que precisam ser resolvidas aqui.

Algoritmos de aprendizado de máquina atualmente usados ​​por plataformas sociais como Facebook e Instagram demonstraram ter uma taxa de erro que pode chegar a 40%. Como resultado, apenas 62,5% do conteúdo odioso é atualmente removido das redes sociais de acordo com a Comissão Europeia, deixando grandes volumes de conteúdo não moderado por aí que podem facilmente impactar pessoas e empresas.

Além do mais, esses algoritmos também lutam para administrar a delicada questão da liberdade de expressão. Por não terem a capacidade de detectar sutilezas linguísticas, eles podem se inclinar muito para o lado da censura, pois os algoritmos tendem a reagir de forma exagerada.

Com a moderação humana e as soluções baseadas em IA tendo suas limitações, é necessária uma abordagem combinada. De fato, ao combinar aprendizado de máquina inteligente com uma equipe humana composta por linguistas, controladores de qualidade e programadores, as marcas estarão bem posicionadas para remover comentários odiosos de maneira mais rápida e eficaz.

Obviamente, selecionar a solução certa aqui será fundamental. Idealmente, as marcas devem procurar adotar uma solução avançada o suficiente para reconhecer as diferenças entre amigos interagindo com linguagem “colorida” e comentários hostis direcionados a uma marca.

Atingir esse equilíbrio é vital. Para encorajar o engajamento e construir confiança nas interações online, é crucial que as marcas trabalhem para garantir que a toxicidade não polua os canais de comunicação, ao mesmo tempo em que fornecem aos consumidores uma plataforma para criticar e debater.

Felizmente, com a abordagem certa, a moderação pode ser eficaz. Na verdade, não se trata de proibir a liberdade de expressão, mas de impedir que conteúdo tóxico chegue a possíveis destinatários para tornar a Internet um lugar mais seguro para todos.