Facebook, Euro 2020 이후 온라인에서 인종 차별적 학대를 근절하기 위한 노력에 대한 새로운 개요 제공
게시 됨: 2022-04-08잉글랜드 축구 대표팀을 대상으로 한 온라인 인종차별적 학대의 또 다른 주요 사건 이후, 페이스북은 그러한 공격을 처리하고 사람들이 플랫폼 전반에서 인종 기반 학대를 경험하는 것을 막기 위해 어떻게 일하고 있는지에 대한 새로운 개요를 제공했습니다.
일요일 유럽 챔피언십 결승전에서 잉글랜드가 패한 후 소셜 미디어 트롤은 잉글랜드 축구 대표팀의 흑인 선수 3명을 공격하는 수백 개의 인종 차별적 발언을 게시했으며, 여기에는 이모티콘이 학대 요소로 사용되었습니다. 어떤 인스타그램 시스템이 처음에는 문제를 일으키지 않았습니까? 그러나 현재 검토를 통해 Facebook은 시스템과 팀을 업데이트하여 앞으로 유사한 사건을 해결하는 동시에 프로세스를 전반적으로 개선할 것으로 보입니다.
페이스북에서 설명했듯이:
"지난 주말 유로 2020 결승전 이후 잉글랜드 축구 대표팀의 일부 구성원이 겪은 끔찍한 인종차별적 학대에 소름이 돋았습니다. 이것은 우리가 수년 동안 작업해 온 매우 심각한 문제입니다. 여기에는 축구 조직 및 법률과 직접 협력하는 것도 포함됩니다. 시행."
실제로 올해에도 Facebook은 영국 축구 팬들과 다시 연결되는 이 면에서 심각한 도전에 직면해 있습니다.
지난 2월 Instagram 은 Instagram Direct를 통해 표적이 된 맨체스터 유나이티드, 첼시, 리버풀 등의 선수 에 대한 인종 기반 공격의 다양한 사건의 출처가 되었습니다 . 맨체스터 유나이티드는 에버튼, 리버풀, 맨체스터 시티와의 공동 성명 에서 이 사건을 규탄하고 인스타그램의 모회사인 페이스북에 사용자를 보호하기 위해 더 많은 조치를 취할 것을 촉구했습니다. DM, 그리고 개인 계정에서 팔로우하지 않는 사람들의 DM을 끌 수 있는 새로운 옵션.
그러나 분명히 여기에 추가해야 할 문제가 더 있습니다. 인종차별은 사회적 문제이며 소셜 플랫폼에만 국한되지는 않지만 Facebook은 그 영향을 줄이기 위해 역할을 하기 위해 이에 대한 증폭을 제공하지 않도록 해야 합니다.
페이스북은 분명히 다음과 같이 말합니다.
"우리는 인종, 종교, 국적 또는 성적 취향을 포함하여 보호되는 특성을 기반으로 사람들에 대한 공격을 허용하지 않습니다. 인종을 기반으로 사람들을 공격하는 데 사용되는 단어나 이모티콘을 발견하는 경우 삭제합니다. 우리의 정책을 위반했기 때문입니다. 우리는 커뮤니티 기준과 Instagram의 커뮤니티 가이드라인에 증오심 표현 정책을 게시합니다."
언급한 바와 같이 이 최근 사건의 문제는 이모티콘을 인종 차별적 표시로 사용하는 것이 처음에는 확인되지 않았다는 것입니다. Instagram의 Adam Mosseri는 이를 인정했습니다.
우리는 보고를 시도하고 우선 순위를 정하는 기술을 보유하고 있으며, 실수로 이들 중 일부를 양성 댓글로 표시했지만 절대 그렇지 않습니다. 그 이후로 이 문제가 해결되었으며 출판물은 이 모든 맥락을 담고 있습니다.
— 아담 모세리 ???? (@mosseri) 2021년 7월 14일
페이스북은 인공 지능과 사람의 리뷰를 결합하여 증오심 표현을 식별한다고 설명합니다.
"AI는 검토자를 위한 보고서의 우선 순위를 지정하고 적절한 경우 자동화된 조치를 취하는 데 도움이 됩니다. 2021년 1월과 3월 사이에 Facebook에서 2,500만 개 이상의 증오심 표현 콘텐츠를 제거했습니다. 이는 누군가가 우리에게 보고하기 전에 거의 97%였습니다. 그리고 Instagram에서 , 우리는 630만 건의 콘텐츠에 대해 조치를 취했는데, 93%는 누군가가 우리에게 보고하기 전이었습니다."

좋은 결과 비율이지만 이 최신 사건에서 알 수 있듯이 이러한 시스템이 모든 것을 포착하지 못할 때가 있습니다. Mosseri가 추가로 언급한 것처럼 규모의 문제이기도 합니다.
우리의 규모 때문입니다. 우리는 하루에 수백만 건 또는 보고서를 처리합니다. 우리가 그 중 1퍼센트에서 실수를 한다면, 그것은 수만 번의 실수입니다. 우리는 더 잘해야 하고 계속 할 것입니다. 그러나 항상 약간의 실수가 있을 것입니다.
— 아담 모세리 ???? (@mosseri) 2021년 7월 15일
현실적으로 이를 완전히 없앨 수 있는 방법은 없지만 Facebook은 사례가 감지될 때 시스템을 실시간으로 업데이트하여 남용을 방지하고 노출을 제한하기 위해 더 빠르게 노력하고 있습니다.
"사람들은 게시물을 신고하고 특정 이모티콘이 포함된 증오성 댓글이 우리의 규칙을 위반하지 않는다는 잘못된 말을 들었을 때 당연히 좌절했습니다. 그건 우리 AI가 맥락을 이해하지 못했기 때문입니다. 그리고 그것은 실수입니다. 우리는 옮겼습니다. 최신 기술 개선을 통해 이 문제를 신속하게 수정합니다. 플랫폼에서 위반하는 이모티콘을 더 빨리 제거할 수 있도록 계속 작업할 것입니다."
그것은 매우 어려운 균형이며 아무도 모든 답을 가지고 있지 않습니다. 예를 들어 다양한 규제 단체는 이러한 문제를 적시에 해결하지 못하는 소셜 플랫폼에 대해 더 강력한 처벌을 제안했습니다. 문제는 '시의적절한' 것으로 간주되는 것이 거의 사례별로 다를 수 있다는 것입니다.
인스타그램이 이모티콘의 오용을 더 일찍 발견했어야 했나? 예 - 그러나 자동화 시스템은 이것을 문제로 식별하지 않았습니다. 왜냐하면 그것이 되기 전까지는 아무도 없었고, 너무 늦기 전까지는 아무도 그런 것을 예상할 수 없었기 때문입니다.
이 문제를 해결할 수 있는 한 가지 방법은 개인이 소셜 미디어 계정에 가입할 때 더 엄격한 ID 요구 사항을 적용하여 범죄자를 더 쉽게 식별할 수 있도록 하는 것입니다. 귀하의 온라인 행동에 대한 실제 법적 구제 수단의 위협이 있는 경우 사용자가 자신의 행동을 재고하게 만드는 충분한 위협으로 작용할 수 있습니다.
그러나 Facebook은 이것이 반드시 앞으로 나아갈 길은 아니라고 말합니다.
"신분증 확인에는 공식 신분증에 쉽게 접근할 수 없는 그룹, 특히 불리한 그룹을 주로 배제하는 위험이 있습니다. 선거관리위원회의 가장 최근 모델링에 따르면 영국의 1,100만 명이 신분증이 없는 것으로 추산됩니다. 운전 면허증이나 여권, 그리고 이 그룹은 불리한 배경을 가진 사람들일 가능성이 더 큽니다."
이는 타당한 지적이며, 이와 관련하여 이전의 과제와 모든 온라인 플랫폼에 대해 다시 한 번 더 많은 범위를 제공합니다.
어렵지만 중요한 과제이며 Facebook이 매우 진지하게 받아들이고 있는 과제입니다. 이상적으로는 이러한 주요 문제를 해결하는 솔루션을 찾을 수 있지만 실제로는 어떤 조치를 시행하더라도 오용 수준이 항상 존재합니다.
그리고 다시, Facebook의 규모에서는 작은 오차 범위라도 큰 영향을 미칠 수 있습니다.
자동화 시스템이 발전함에 따라 모두를 위한 안전한 환경을 유지하기 위해 더 많은 도구가 제정될 수 있기를 바랍니다.