L'impact des contenus toxiques et nuisibles sur les marques, leurs équipes et leurs clients

Publié: 2023-01-19

La toxicité en ligne peut être dommageable pour les marques, impacter le bien-être de leur personnel de première ligne et créer un réel impact commercial pour les marques si leurs clients y sont exposés. Alors, comment les entreprises peuvent-elles travailler pour atténuer les effets négatifs ?

Ici, Matthieu Boutard, président et co-fondateur de Bodyguard.ai, décrit les avantages et les défis de la modération de contenu et explore comment les entreprises peuvent adopter une approche mixte pour obtenir les meilleurs résultats.

Le projet de loi sur la sécurité en ligne devant entrer en vigueur au Royaume-Uni dans les mois à venir, une grande attention a été accordée à l'impact négatif des médias sociaux sur ses utilisateurs.

L'objectif du projet de loi est de respecter l'engagement manifeste du gouvernement de faire du Royaume-Uni l'endroit le plus sûr au monde pour être en ligne. Cependant, il devra trouver un équilibre critique pour y parvenir efficacement.

Selon le Département du numérique, de la culture, des médias et des sports (DCMS), il vise à assurer la sécurité des enfants, à mettre fin à la haine raciale et à protéger la démocratie en ligne, tout en garantissant également que les personnes au Royaume-Uni puissent s'exprimer librement et participer à un débat pluraliste et solide. .

Le projet de loi imposera de nouvelles obligations aux organisations de supprimer les contenus illégaux ou préjudiciables. En outre, les entreprises qui ne se conforment pas à ces nouvelles règles pourraient être passibles d'amendes pouvant atteindre 18 millions de livres sterling ou 10 % de leur chiffre d'affaires mondial annuel, selon le montant le plus élevé.

De telles mesures peuvent sembler drastiques, mais elles deviennent de plus en plus nécessaires. La toxicité en ligne est répandue, couvrant tous les canaux de communication, des médias sociaux au chat en jeu.

En explorant l'étendue du problème, nous avons récemment publié un livre blanc inaugural examinant la toxicité en ligne visant les entreprises et les marques au cours des 12 mois qui se sont terminés en juillet 2022.

Au cours de ce processus, nous avons analysé plus de 170 millions d'éléments de contenu sur 1 200 chaînes de marque en six langues, et constaté que jusqu'à 5,24 % de tout le contenu généré par les communautés en ligne est toxique. En effet, 3,28% pourraient être qualifiés de haineux (insultes, haine, misogynie, menaces, racisme, etc.), tandis que 1,96% pourraient être qualifiés de junk (escroqueries, fraudes, trolling, etc).

Trois défis clés de la modération de contenu

Malheureusement, la prévalence croissante de la haine en ligne et du contenu toxique s'infiltre de plus en plus dans les canaux de communication basés sur les marques tels que les forums de clients, les pages de médias sociaux et les babillards électroniques.

Pour les marques, cela peut avoir un impact commercial important. En effet, une étude suggère que jusqu'à quatre consommateurs sur 10 quitteront une plateforme après leur première exposition à un langage nuisible. De plus, ils peuvent partager leur mauvaise expérience avec d'autres, créant un effet domino de dommages irréparables à la marque.

Il est donc important que les marques modèrent leur contenu sur les réseaux sociaux pour supprimer les commentaires toxiques. Cependant, le faire efficacement n'est pas une tâche facile, et il existe plusieurs défis potentiels.

Tout d'abord, il peut s'agir d'une tâche très gourmande en ressources et éprouvante à effectuer manuellement. Un modérateur humain formé a généralement besoin de 10 secondes pour analyser et modérer un seul commentaire.

Par conséquent, s'il y a des centaines ou des milliers de commentaires publiés en même temps, il peut devenir impossible de gérer le flux de commentaires haineux en temps réel. En conséquence, de nombreux modérateurs de contenu sont mentalement épuisés par le volume de travail.

De plus, être exposé à plusieurs reprises à un langage grossier, à des vidéos toxiques et à du contenu préjudiciable peut avoir un effet psychologique sur les modérateurs. En effet, la santé mentale de ces personnes ne peut être négligée, tandis que l'épuisement professionnel dû à la toxicité peut être coûteux pour les entreprises, accélérant potentiellement le roulement du personnel.

Troisièmement, les entreprises doivent faire preuve de prudence lors de la modération pour s'assurer qu'elles ne sont pas accusées de censure. Les canaux de marque tels que les médias sociaux sont souvent une source principale pour les clients qui interagissent avec les marques, fournissent leurs commentaires et demandent des comptes aux marques. Ceux qui donnent l'impression de supprimer tout commentaire critique ou négatif peuvent également être critiqués.

Une approche mixte pour des résultats équilibrés

Heureusement, les technologies basées sur l'intelligence artificielle et l'apprentissage automatique commencent à relever certains des défis auxquels sont confrontés les modérateurs humains. Cependant, il y a d'autres problèmes qui doivent être résolus ici.

Il a été démontré que les algorithmes d'apprentissage automatique actuellement utilisés par les plateformes sociales telles que Facebook et Instagram ont un taux d'erreur pouvant atteindre 40 %. En conséquence, seuls 62,5 % des contenus haineux sont actuellement supprimés des réseaux sociaux selon la Commission européenne, laissant de gros volumes de contenus non modérés qui peuvent facilement avoir un impact sur les personnes et les entreprises.

De plus, ces algorithmes peinent également à gérer la délicate question de la liberté d'expression. N'ayant pas la capacité de détecter les subtilités linguistiques, ils peuvent trop pencher du côté de la censure, car les algorithmes ont tendance à réagir de manière excessive.

La modération humaine et les solutions basées sur l'IA ayant leurs limites, une approche mixte est nécessaire. En effet, en associant un machine learning intelligent à une équipe humaine composée de linguistes, de contrôleurs qualité et de programmeurs, les marques seront bien placées pour supprimer plus rapidement et plus efficacement les commentaires haineux.

Bien sûr, choisir la bonne solution ici sera la clé. Idéalement, les marques devraient chercher à adopter une solution suffisamment avancée pour reconnaître les différences entre les amis interagissant avec un langage « coloré » et les commentaires hostiles dirigés vers une marque.

Trouver cet équilibre est vital. Pour encourager l'engagement et instaurer la confiance dans les interactions en ligne, il est crucial que les marques veillent à ce que la toxicité ne pollue pas les canaux de communication tout en offrant aux consommateurs une plate-forme pour critiquer et débattre.

Heureusement, avec la bonne approche, la modération peut être efficace. En effet, il ne devrait pas s'agir d'interdire la liberté d'expression mais d'empêcher les contenus toxiques d'atteindre des destinataires potentiels pour faire d'Internet un endroit plus sûr pour tous.