Facebookは、Euro2020をきっかけに人種差別的な虐待とオンラインで戦うための取り組みの新しい概要を提供します
公開: 2022-04-08英国のサッカーチームのメンバーを対象としたオンラインでの人種差別的虐待の別の主要な事件の後、Facebookは、そのような攻撃に対処し、プラットフォーム全体で人種差別的な虐待を経験することを防ぐためにどのように機能しているかの新しい概要を提供しました。
日曜日の欧州選手権決勝でイングランドが敗れた後、ソーシャルメディアのトロールは何百もの人種差別的な発言を投稿し、虐待要素としての絵文字の使用を含む、イングランドのサッカーチームの3人の黒人選手を攻撃しました。 どのInstagramのシステムが最初は懸念を抱いていませんでしたが、現在、Facebookはシステムとチームを更新して、同様のインシデントに確実に対処すると同時に、プロセス全体を改善することを目指しています。
Facebookで説明されているように:
「先週末のユーロ2020決勝戦の後に、イングランドのサッカーチームの一部のメンバーが経験した人種差別的な虐待に愕然としました。これは、サッカー組織や法律と直接連携することを含め、長年取り組んできた非常に深刻な問題です。執行。"
確かに、今年でさえ、Facebookはこの面で深刻な課題に直面しており、これも英国のサッカーファンと結びついています。
2月に、Instagramは、マンチェスターユナイテッド、チェルシー、リバプールなど、InstagramDirectを介して標的にされたプレーヤーに対する人種ベースの攻撃のさまざまな事件の原因となりました。 マンチェスター・ユナイテッドは、エバートン、リバプール、マンチェスター・シティとの共同声明で、事件を非難し、Instagramの親会社であるFacebookに、ユーザーをそのようなものから保護するためにさらに努力するよう呼びかけました。 DM、および個人アカウントがフォローしていない人からDMをオフにするための新しいオプション。
ただし、明らかに、これに追加する問題はまだまだあります。 人種差別は社会的な問題であり、ソーシャルプラットフォーム自体に限定されるものではありませんが、Facebookは、その影響を減らすために、人種差別を増幅しないようにする必要があります。
Facebookは次のように明確に述べています。
「人種、宗教、国籍、性的指向など、保護されている特性に基づいて人を攻撃することは許可されていません。人種に基づいて人を攻撃するために使用されている単語や絵文字を知っている場合は、それらを削除します。なぜなら、彼らは私たちのポリシーに違反しているからです。私たちは、ヘイトスピーチポリシーをコミュニティスタンダードとInstagramのコミュニティガイドラインに公開しています。」
この最新の事件の問題は、前述のように、人種差別的なマーカーとしての絵文字の使用が最初は特定されていなかったことでした。これは、Instagramのチーフであるアダムモセリが認めています。
私たちはレポートに優先順位を付ける技術を持っており、これらのいくつかを誤って良性のコメントとしてマークしていましたが、絶対にそうではありません。 その後、この問題は解決され、出版物にはこのすべてのコンテキストが含まれています。
—アダム・モセリ???? (@mosseri)2021年7月14日
Facebookは、人工知能と人間によるレビューを組み合わせて悪意のある表現を特定していると説明しています。

「AIは、レビュー担当者のレポートに優先順位を付け、必要に応じて自動アクションを実行するのに役立ちます。2021年1月から3月の間に、Facebookから2500万件以上の悪意のある表現のコンテンツを削除しました。 、私たちは630万個のコンテンツに対して行動を起こしました。これは、誰かが私たちに報告する前に93%でした。」
これは良い結果率ですが、この最新のインシデントが示すように、これらのシステムがすべてをキャッチできない場合があります。 モセリがさらに指摘しているように、これも規模の課題です。
私たちの規模のため。 私たちは1日に数百万またはレポートを処理します。 それらの1%を間違えると、それは何万もの間違いになります。 私たちはもっと良くする必要があり、これからも続けていきますが、常にいくつかの間違いがあります。
—アダム・モセリ???? (@mosseri)2021年7月15日
現実的には、そのようなものを完全に排除する方法はありませんが、Facebookは、悪用との戦いと露出の制限に迅速に取り組むために、ケースが検出されたときにシステムをリアルタイムで更新するように取り組んでいます。
「投稿を報告したとき、人々は当然のことながらイライラし、特定の絵文字を使った嫌なコメントはルールに違反しないと誤って言われました。これは、AIがコンテキストを理解していなかったためです。これは間違いです。私たちは引っ越しました。テクノロジーの最近の改善により、これを迅速に修正します。プラットフォームから違反している絵文字をより迅速に削除できるように、引き続きこれに取り組んでいきます。」
それは非常に難しいバランスであり、誰もすべての答えを持っているわけではありません。 たとえば、さまざまな規制グループが、タイムリーにそのような問題に対処できないソーシャルプラットフォームに対してより厳しい罰則を提案しています。 問題は、「タイムリー」と見なされるものが、ほぼケースバイケースで異なることです。
Instagramは絵文字の誤用をもっと早く拾うべきでしたか? はい-しかし、その自動化されたシステムはこれを問題として識別しませんでした。 そうではなかったので、そうなるまで、そして手遅れになるまで、誰もそのようなことを必ずしも予想できなかったでしょう。
これに対処するための1つの可能な方法は、ソーシャルメディアアカウントにサインアップするときに個人に厳しいID要件を課すことです。これにより、違反者の特定が容易になります。 オンラインでの行動に現実の法的手段を講じる脅威がある場合、それはユーザーに行動を再考させるのに十分な脅威として機能する可能性があります。
しかし、Facebookは、これも必ずしも前進する方法ではないと述べています。
「ID検証にはリスクがあります。主に、公式の身分証明書に簡単にアクセスできないグループ、特に不利な立場にあるグループを除外することです。選挙管理委員会の最新のモデルでは、英国では1,100万人が運転免許証またはパスポート、そしてこのグループは不利な立場にある可能性が高いこと。」
これは有効なポイントであり、この点で、その前の課題、およびすべてのオンラインプラットフォームに関してもう一度範囲を提供します。
これは難しいですが重要な課題であり、Facebookが非常に真剣に取り組んでいる課題です。 理想的には、これらの重要な問題に対処する解決策を見つけることができますが、現実的には、どのような対策が実施されても、常にある程度の誤用が発生します。
繰り返しになりますが、Facebookの規模では、わずかな許容誤差でも大きな影響を与える可能性があります。
うまくいけば、自動化されたシステムが進化するにつれて、すべての人にとって安全な環境を維持するために、より多くのツールを制定することができます。