有毒和有害內容對品牌、他們的團隊和客戶的影響

已發表: 2023-01-19

在線毒性可能會對品牌造成損害,影響其一線員工的福祉,並在客戶接觸到它時對品牌產生真正的商業影響。 那麼,企業如何才能減輕負面影響呢?

Bodyguard.ai 總裁兼聯合創始人 Matthieu Boutard 在此概述了內容審核的好處和挑戰,並探討了公司如何採用混合方法來實現最佳結果。

隨著在線安全法案將在未來幾個月內納入英國法律,社會媒體對其用戶的負面影響引起了廣泛關注。

該法案的目標是兌現政府的宣言承諾,使英國成為世界上上網最安全的地方。 然而,它需要取得關鍵的平衡才能有效地實現這一目標。

根據數字、文化、媒體和體育部 (DCMS) 的說法,它旨在保護兒童安全、制止種族仇恨和保護在線民主,同時同樣確保英國人民可以自由表達自己的意見並參與多元化和激烈的辯論.

該法案將對組織施加新的義務,以刪除非法或有害內容。 此外,不遵守這些新規定的公司可能面臨高達 1800 萬英鎊或其全球年營業額的 10% 的罰款——以最高者為準。

這些措施看似嚴厲,但正變得越來越必要。 從社交媒體到遊戲內聊天,網絡毒害無處不在,涵蓋所有溝通渠道。

在探索問題的嚴重程度時,我們最近發布了一份首份白皮書,研究了截至 2022 年 7 月的 12 個月內針對企業和品牌的在線毒性。

在此過程中,我們分析了 1,200 個品牌頻道中六種語言的超過 1.7 億條內容,發現在線社區生成的所有內容中有多達 5.24% 是有毒內容。 事實上,3.28% 可以歸類為仇恨(侮辱、仇恨、厭女、威脅、種族主義等),而 1.96% 可以歸類為垃圾(詐騙、欺詐、拖釣等)。

內容審核的三個主要挑戰

不幸的是,在線仇恨和有毒內容的日益流行正越來越多地滲透到基於品牌的溝通渠道,例如客戶論壇、社交媒體頁面和留言板。

對於品牌而言,這可能會產生重大的商業影響。 事實上,一項研究表明,在第一次接觸有害語言後,多達十分之四的消費者會離開平台。 此外,他們可能會與他人分享他們糟糕的經歷,造成無法彌補的品牌損害的多米諾骨牌效應。

因此,重要的是品牌商要調整他們的社交媒體內容以刪除有毒評論。 然而,有效地做到這一點並非易事,並且存在一些潛在的挑戰。

首先,手動完成它可能是一項高度資源密集型和繁重的任務。 受過訓練的人工審核員通常需要 10 秒來分析和審核一條評論。

因此,如果同時發布成百上千條評論,實時管理仇恨評論流將成為一項不可能完成的任務。 結果,許多內容版主因工作量大而精疲力盡。

此外,反復接觸髒話、有毒視頻和有害內容會對版主產生心理影響。 事實上,這些人的心理健康不容忽視,而毒性造成的進一步倦怠對企業來說可能代價高昂,可能會加速員工流失。

第三,公司在進行審核時需要謹慎行事,以確保他們不會被指控進行審查。 社交媒體等品牌渠道通常是客戶與品牌互動、提供反饋並讓品牌承擔責任的主要來源。 那些給人的印像是他們只是在刪除任何批評或負面評論的人也可能會受到抨擊。

平衡結果的混合方法

幸運的是,人工智能和機器學習驅動的技術開始解決人類版主面臨的一些挑戰。 但是,這裡還有其他問題需要解決。

Facebook 和 Instagram 等社交平台目前使用的機器學習算法已被證明具有高達 40% 的錯誤率。 因此,根據歐盟委員會的數據,目前只有 62.5% 的仇恨內容從社交網絡中刪除,留下大量未經審核的內容,很容易影響個人和企業。

更重要的是,這些算法還難以處理敏感的言論自由問題。 由於缺乏檢測語言細微差別的能力,他們可能過於依賴審查制度,因為算法容易反應過度。

由於人工審核和人工智能驅動的解決方案都有其局限性,因此需要一種混合方法。 事實上,通過將智能機器學習與由語言學家、質量控制人員和程序員組成的人類團隊相結合,品牌將能夠更快、更有效地刪除仇恨評論。

當然,在這裡選擇正確的解決方案將是關鍵。 理想情況下,品牌應該尋求採用一種足夠先進的解決方案,以識別朋友使用“豐富多彩”的語言進行互動與針對品牌的敵對評論之間的區別。

取得這種平衡至關重要。 為了鼓勵參與並建立對在線互動的信任,品牌必須努力確保毒性不會污染溝通渠道,同時為消費者提供批評和辯論的平台。

值得慶幸的是,通過正確的方法,節制是有效的。 事實上,這不應該是禁止言論自由,而應該是防止有毒內容到達潛在的接收者手中,從而使互聯網成為對每個人來說都更安全的地方。