Die Auswirkungen toxischer und schädlicher Inhalte auf Marken, ihre Teams und Kunden
Veröffentlicht: 2023-01-19Online-Toxizität kann für Marken schädlich sein, das Wohlbefinden ihrer Mitarbeiter an der Front beeinträchtigen und echte kommerzielle Auswirkungen für Marken haben, wenn ihre Kunden ihr ausgesetzt sind. Wie können Unternehmen also daran arbeiten, die negativen Auswirkungen abzumildern?
Hier skizziert Matthieu Boutard, Präsident und Mitbegründer von Bodyguard.ai, die Vorteile und Herausforderungen der Inhaltsmoderation und untersucht, wie Unternehmen einen gemischten Ansatz verfolgen können, um die besten Ergebnisse zu erzielen.
Da das Online-Sicherheitsgesetz in den kommenden Monaten in britisches Recht umgesetzt werden soll, wurde den negativen Auswirkungen sozialer Medien auf ihre Nutzer viel Aufmerksamkeit geschenkt.
Das Ziel des Gesetzentwurfs ist es, das Manifest der Regierung zu erfüllen, das Vereinigte Königreich zum sichersten Ort der Welt zu machen, um online zu sein. Um dies effektiv zu erreichen, muss jedoch ein kritisches Gleichgewicht gefunden werden.
Laut dem Ministerium für Digitales, Kultur, Medien und Sport (DCMS) zielt es darauf ab, Kinder zu schützen, Rassenhass zu stoppen und die Demokratie im Internet zu schützen und gleichzeitig sicherzustellen, dass sich die Menschen im Vereinigten Königreich frei äußern und an einer pluralistischen und robusten Debatte teilnehmen können .
Der Gesetzentwurf wird Organisationen neue Verpflichtungen auferlegen, illegale oder schädliche Inhalte zu entfernen. Darüber hinaus könnten Unternehmen, die diese neuen Regeln nicht einhalten, mit Geldstrafen von bis zu 18 Millionen Pfund Sterling oder 10 % ihres weltweiten Jahresumsatzes rechnen – je nachdem, welcher Betrag höher ist.
Solche Maßnahmen mögen drastisch erscheinen, werden aber immer notwendiger. Online-Toxizität ist weit verbreitet und erstreckt sich über alle Kommunikationskanäle, von sozialen Medien bis hin zu In-Game-Chats.
Um das Ausmaß des Problems zu untersuchen, haben wir kürzlich ein erstes Whitepaper veröffentlicht, das die Online-Toxizität untersucht, die sich an Unternehmen und Marken in den 12 Monaten bis Juli 2022 richtet.
Während dieses Prozesses haben wir über 170 Millionen Inhalte in 1.200 Markenkanälen in sechs Sprachen analysiert und festgestellt, dass bis zu 5,24 % aller von Online-Communities generierten Inhalte toxisch sind. Tatsächlich könnten 3,28 % als hasserfüllt eingestuft werden (Beleidigungen, Hass, Frauenfeindlichkeit, Drohungen, Rassismus usw.), während 1,96 % als Junk (Betrug, Betrug, Trolling usw.) eingestuft werden könnten.
Drei zentrale Herausforderungen der Inhaltsmoderation
Leider dringt die wachsende Verbreitung von Hass und toxischen Inhalten im Internet zunehmend in markenbasierte Kommunikationskanäle wie Kundenforen, Social-Media-Seiten und Message Boards ein.
Für Marken kann dies erhebliche kommerzielle Auswirkungen haben. Tatsächlich legt eine Studie nahe, dass bis zu vier von zehn Verbrauchern eine Plattform verlassen, nachdem sie zum ersten Mal mit schädlicher Sprache in Berührung gekommen sind. Darüber hinaus können sie ihre schlechten Erfahrungen mit anderen teilen, was einen Dominoeffekt von irreparablen Markenschäden erzeugt.
Es ist daher wichtig, dass Marken ihre Social-Media-Inhalte moderieren, um toxische Kommentare zu entfernen. Dies effektiv zu tun, ist jedoch keine leichte Aufgabe, und es gibt mehrere potenzielle Herausforderungen.
Erstens kann es eine sehr ressourcenintensive und anstrengende Aufgabe sein, sie manuell auszuführen. Ein geschulter menschlicher Moderator benötigt normalerweise 10 Sekunden, um einen einzelnen Kommentar zu analysieren und zu moderieren.

Wenn Hunderte oder Tausende von Kommentaren gleichzeitig gepostet werden, kann es daher zu einer unmöglichen Aufgabe werden, den Strom hasserfüllter Kommentare in Echtzeit zu verwalten. Infolgedessen sind viele Inhaltsmoderatoren von der Menge an Arbeit geistig erschöpft.
Darüber hinaus kann es eine psychologische Wirkung auf Moderatoren haben, wiederholt Schimpfwörtern, giftigen Videos und schädlichen Inhalten ausgesetzt zu sein. Tatsächlich kann die psychische Gesundheit dieser Personen nicht übersehen werden, während ein weiterer Burnout durch Toxizität für Unternehmen kostspielig sein und möglicherweise die Mitarbeiterfluktuation beschleunigen kann.
Drittens müssen Unternehmen bei der Moderation einen schmalen Grat beschreiten, um sicherzustellen, dass ihnen keine Zensur vorgeworfen wird. Markenkanäle wie soziale Medien sind oft eine primäre Quelle für Kunden, die mit Marken interagieren, ihr Feedback geben und Marken zur Rechenschaft ziehen. Auch diejenigen, die den Eindruck erwecken, dass sie kritische oder negative Kommentare einfach löschen, können unter Beschuss geraten.
Ein kombinierter Ansatz für ausgewogene Ergebnisse
Glücklicherweise beginnen KI- und auf maschinellem Lernen basierende Technologien, einige der Herausforderungen anzugehen, mit denen menschliche Moderatoren konfrontiert sind. Es gibt jedoch noch weitere Probleme, die hier geklärt werden müssen.
Algorithmen für maschinelles Lernen, die derzeit von sozialen Plattformen wie Facebook und Instagram verwendet werden, haben nachweislich eine Fehlerquote von bis zu 40 %. Infolgedessen werden laut der Europäischen Kommission derzeit nur 62,5 % der hasserfüllten Inhalte aus sozialen Netzwerken entfernt, wodurch große Mengen an nicht moderierten Inhalten übrig bleiben, die sich leicht auf Menschen und Unternehmen auswirken können.
Darüber hinaus haben diese Algorithmen auch Schwierigkeiten, das sensible Thema Meinungsfreiheit zu bewältigen. Da sie nicht in der Lage sind, sprachliche Feinheiten zu erkennen, neigen sie zu sehr zur Zensur, da Algorithmen zu Überreaktionen neigen.
Da sowohl die menschliche Moderation als auch KI-gesteuerte Lösungen ihre Grenzen haben, ist ein gemischter Ansatz erforderlich. In der Tat werden Marken durch die Kombination von intelligentem maschinellem Lernen mit einem menschlichen Team aus Linguisten, Qualitätskontrolleuren und Programmierern gut aufgestellt sein, um hasserfüllte Kommentare schneller und effektiver zu entfernen.
Hier kommt es natürlich auf die Auswahl der richtigen Lösung an. Idealerweise sollten Marken nach einer Lösung suchen, die fortschrittlich genug ist, um die Unterschiede zwischen Freunden, die mit „bunter“ Sprache interagieren, und feindseligen Kommentaren, die sich an eine Marke richten, zu erkennen.
Dieses Gleichgewicht zu finden, ist von entscheidender Bedeutung. Um das Engagement zu fördern und Vertrauen in Online-Interaktionen aufzubauen, ist es von entscheidender Bedeutung, dass Marken daran arbeiten, sicherzustellen, dass Toxizität die Kommunikationskanäle nicht verschmutzt, und den Verbrauchern gleichzeitig eine Plattform zum Kritisieren und Debattieren bieten.
Zum Glück kann Moderation mit dem richtigen Ansatz effektiv sein. In der Tat sollte es nicht darum gehen, die Meinungsfreiheit zu verbieten, sondern zu verhindern, dass schädliche Inhalte potenzielle Empfänger erreichen, um das Internet zu einem sichereren Ort für alle zu machen.