顔認識の倫理: 主な問題と解決策

公開: 2022-01-25

顔認識は、魅力的な技術的驚異の 1 つと考えられています。

写真、ビデオ、またはリアルタイムで人間の顔を認識できるためです。 画像認識システムは、精度、速度、およびアルゴリズムの点で、当初から法執行機関で採用され、消費者向けデバイスで広く使用されるまで、長い道のりを歩んできました。

顔認識の倫理をめぐる多くの論争 (個人情報の詐欺やプライバシーの侵害に関する懸念など、プライバシーの批評家や擁護者によって表明されたもの) を考えると、私たちは、100 万ドル規模の質問に直面しています。影響力のある?

顔認識技術を使用する際の倫理的な問題は何ですか?

近年、批評家は、顔認識システムの精度となりすまし詐欺における役割に疑問を呈しています。 法執行機関は、いくつかのケースで罪のない人々を誤って巻き込んだ。 さらに、ID の管理と保存は、世界中の多くの頭を悩ませているプラ​​イバシー擁護者にとって疑問のままです。 複雑ですね。

顔認識の倫理 ama Journal of ethics グラフィック

出典: AMAジャーナル・オブ・エシックス

顔認識システムに関連する上位 6 つの倫理的懸念には、人種的偏見と誤った情報、法執行機関における人種差別、プライバシー、インフォームド コンセントと透明性の欠如、大量監視、データ侵害、非効率的な法的支援が含まれます。 それぞれについて詳しく見ていきましょう。

1.テストの不正確さによる人種的偏見

人種的偏見は、依然として顔認識システムの主な懸念事項の 1 つです。 顔認識アルゴリズムは 90% 以上の分類精度を保証しますが、これらの結果は普遍的ではありません。

顔認識の倫理に異議を唱える懸念すべき開発は、最近、何度も何度も発生しています。 アメリカの成人の半数以上、つまり約 1 億 1,700 万人が法執行機関の顔認識ネットワークに写真を持っています。 ただし、顔認識システムで検出されたエラーは、肌の色が濃い顔でより一般的でしたが、肌の色が薄い顔を照合するとエラーが少なくなったのは気がかりです.

2020 年 7 月、米国国立標準技術研究所 (NIST) は、これらの結果を確認するために独立した評価を実施しました。 189のアルゴリズムの顔認識技術が、有色人種の女性に対する人種的偏見を示したと報告しました。 NIST はまた、調査した最高の顔認識アルゴリズムでさえ、マスク着用者をほぼ 50% の確率で正しく識別できなかったと結論付けました。

2.法執行における人種差別

最近の暴露で、米国連邦政府は、顔認識アルゴリズムにおける差別の問題を確認したレポートを発表しました。 そのシステムは通常、中年の白人男性の顔には効果的でしたが、有色人種、高齢者、女性、子供にはあまり効果がありませんでした。 これらの人種差別的でエラーが発生しやすいアルゴリズムは、不当な逮捕、長期の投獄、さらには致命的な警察の暴力など、大混乱を引き起こす可能性があります.

35%

白人男性の 1% と比較して、有色人種の女性を識別する際に発生する顔認識エラーの割合。

出典:G2

米国連邦議会議事堂のような法執行機関は、顔認識アルゴリズムを使用して個人を識別するために顔写真データベースに依存しています。 これはフィードフォワード ループにつながり、人種差別的な警察戦略が不釣り合いで無実の逮捕につながります。

全体として、顔認識データは不完全です。 それは犯されていない犯罪に対する罰則につながる可能性があります。 たとえば、新しいヘアスタイルなど、カメラ アングルや外観のわずかな変更がエラーにつながる可能性があります。

3. データのプライバシー

プライバシーは一般市民の関心事の 1 つです。これは主に、情報の保存方法と管理方法に透明性が欠けているためです。 顔認識は、市民が常に政府の監視下に置かれ、同意なしに自分の画像を保持するという固有の権利を侵害しています。

2020 年、欧州委員会は、法的枠組みを変更し、プライバシーと倫理的虐待に関するガイドラインを含めるために、公共の場での顔認識技術を最大 5 年間禁止しました。

顔認識に関するプライバシーの懸念は、顔認識データやその他の潜在的なセキュリティ上の脅威を公開する可能性のある、セキュリティで保護されていないデータ ストレージの慣行に関連しています。 ほとんどの組織は、ローカル サーバーで顔データをホストし続けているため、セキュリティの脆弱性や、ネットワーク セキュリティを確保する IT セキュリティの専門家の不足につながっています。

顔認識技術は、クラウドでホストされている場合、最大限のデータ セキュリティを確保できます。 ただし、データの完全性は、適切な暗号化によってのみ保証されます。 IT サイバーセキュリティ担当者の配置は、適切なデータ ストレージに不可欠であり、消費者による制御を提供して説明責任を改善し、悪意のあるトラフィックを防止します。

明るい面では、顔認識技術を搭載した消費者向け製品は、この機能を無効にするか使用しないかを選択できるため、それほど議論の余地はありません。 しかし、消費財企業は依然としてプライバシー侵害による禁止の犠牲になっています。 しかし、彼らは高度なセキュリティ機能としてマーケティングすることで、フェイシャル テクノロジーを搭載した製品を提供し続けています。

被害者がプライバシー侵害に対する金銭的補償を求めることを可能にするデバイスには、法的ルートに進むという決定が開かれています。 たとえば、ソーシャル メディア大手の Facebook は、イリノイ州で公開されていない顔認識用の写真を収集したことをめぐって、6 億 5000 万ドルの集団訴訟で和解しました。

しかし、法執行機関が顔認識技術を使用して、公共の安全とセキュリティについて知らないうちに市民を監視、スキャン、追跡する場合、プライバシーは依然として問題です。 これにより、市民がストレージとガバナンスに関する参加と透明性をよりコントロールできるようにするために、より厳しい規制を求める多くの抗議が引き起こされました.

4. インフォームドコンセントと透明性の欠如

プライバシーは、収集された情報のほとんどが匿名化されているオンラインでは特に、どのような形式のデータ マイニングでも問題になります。 顔認識アルゴリズムは、理想的にはさまざまな照明条件と角度で複数回キャプチャされた画像の大規模なデータセットでテストおよびトレーニングされると、よりうまく機能します。

画像の最大のソースは、オンライン サイト、特に公共の Flickr 画像であり、著作権ライセンスの下でアップロードされ、自由な再利用や、時には違法なソーシャル メディア プラットフォームが許可されています。

ワシントンに本拠を置く Microsoft Research の科学者は、ミュージシャン、ジャーナリスト、学者を含む 100,000 人のインターネットからかき集めた 1,000 万枚近くの画像を含む、世界最大のデータセット MSCeleb5 を収集しました。

2019 年、ベルリンを拠点とするアーティスト Adam Harvey の MegaPixels と呼ばれる Web サイトが、これらのデータセットやその他のデータセットにフラグを立てました。 技術者でプログラマーのジュールズ・ラプレイスとともに、彼はほとんどのアップロード者が自分の写真を公然と共有していることを示しました。 しかし、それらは商用監視製品の評価と改善に悪用されていました。

5. 大量監視

ユビキタスなカメラやデータ分析と併用すると、顔認識は大規模な監視につながり、市民の自由とプライバシーの権利を侵害する可能性があります。 顔認識技術は、犯罪者を追跡することで政府の法執行に役立ちますが、一般の罪のない人々の基本的なプライバシー権も侵害します。

最近、欧州委員会は 51 の組織から、大量監視のためのすべての顔認識ツールの全面禁止を求める公開書簡を受け取りました。 別の出来事として、43,000 人を超えるヨーロッパ市民が、EU での生体認証による大量監視の禁止を求める請願書に署名しました。

最近の一連の出来事は、人工知能 (AI) を手に負えないように使用して人々、政府機関、および集団民主主義を操作し、脅迫しているため、顔認識技術の倫理に挑戦しています。

AI と機械学習 (ML) は、安全な顔認識技術を活用できる破壊的な技術です。 個人情報の盗難や詐欺に悪用される前に、赤い線を引くことが重要です。

6. データ侵害と効果のない法的サポート

データ侵害は、一般市民と政府の両方に重大なプライバシーの懸念を引き起こす可能性があります。

セキュリティ侵害は市民にとって大きな懸念事項ですが、このテクノロジーの開発により、サイバーセキュリティが進歩し、クラウドベースのストレージの使用が増加しました。 暗号化などのセキュリティ層を追加することで、クラウドに保存されたデータを悪意のある使用から保護できます。

ラスベガスでセキュリティ研究者が主催する毎年恒例の Black Hat ハッカー カンファレンスで、ハッカーは Apple の iPhone FaceID ユーザー認証をわずか 120 秒で破りました。

このようなイベントは、保存されたデータのハッカーに対する脆弱性を高め、最終的に深刻な犯罪での Face ID の盗難の可能性を高めます。 顔の盗難の被害者が追求する法的選択肢は比較的少ないです。

EU 一般データ保護規則 (GDPR) は、研究者が同意なしに生体認証研究のために人の顔の写真を収集する法的根拠を与えていません。 米国には、個人の同意なしに個人の生体認証情報を使用することに関して、さまざまな法律があります。

顔認識ツールを倫理的に使用する方法

顔認識ユーザーは、この技術の倫理的な使用を確保するために、アメリカ市民自由連合 (ACLU) によって提案された次の原則を採用できます。

  • 収集:機関は、生体認証データを顔認識データベースに含める前に、市民から十分な説明を受け、書面による同意を得る必要があります。
  • 使用法:ユーザーは、顔認識システムを使用して、個人の肌の色、人種、宗教、出身国、性別、年齢、または障害を判断することを控える必要があります。
  • 開示:顔認識システムの結果は、データ主体の書面による十分な情報に基づく同意なしに取引または共有されるべきではありません。
  • アクセス:市民は、データに加えられた変更の記録とともに、自分の顔情報にアクセス、編集、および削除する権利を持っている必要があります。
  • 誤用:個人の ID に関連する公に利用可能な記録をホストする組織は、積極的な対策と適切な制御を行って、悪用による顔紋データベースの構築を防止する必要があります。 いくつかの対策には、機密データベースへの自動アクセスを制限することや、倫理的な使用ガイドラインを遵守することをパートナーに契約で要求することが含まれます.
  • セキュリティ:組織には、顔認識情報をホスト、管理、保護する専任のセキュリティ専門家が必要です。
  • 説明責任:エンドユーザーは、情報の収集、使用、開示の詳細、日時のスタンプ、および情報を要求したユーザーの詳細を含む監査証跡を維持する必要があります。
  • 政府によるアクセス:組織は、1974 年データ保護法に基づいて、または相当な理由の令状を受け取った場合に、機密情報へのアクセスを政府に許可することができます。
  • 透明性:組織は、説明責任を検証するために必要な技術的手段を提供しながら、コンプライアンスとデータの使用に関するポリシーを定義する必要があります。

顔認識技術の倫理的利用例

顔認識技術は、潜在的なセキュリティの脅威からシステムを保護しながら、顧客の安全に重点を置いているほとんどのテクノロジー企業の心臓部です。 顔認識を倫理的に使用している企業の 3 つの例を見てみましょう。

IBM

テクノロジー大手の IBM は、米国の連邦政府による規制のために、顔認識技術の販売に抜本的な制限を課しました。 さらに、IBM は米国商務省に対して、場合によっては顔認識システムの輸出により厳しい制限を課すよう具体的な勧告を提案しました。

また、最終用途とユーザーに重大な社会的損害を与える可能性のあるより厳しい制限を課す動きである精密規制も推進しました。 また、顔認識技術が一致を見つける方法について、次の 6 つの変更を提案しました。

  • 大量監視、人種プロファイリング、および人権を侵害する可能性のあるその他のデリケートな領域のために、最終用途に「1 対多」のマッチングを使用する顔認識技術を制限する
  • データベースに対するデータの収集と分析に使用される高解像度カメラとアルゴリズムの両方のエクスポートを制御することにより、「1 対多」システムのエクスポートを制限する
  • 統合された顔認識システム用の大規模なクラウド コンピューティング コンポーネントを調達する特定の外国政府に制限を課す。
  • 1 対多の顔認識システムのトレーニングに使用できるオンライン画像データベースへのアクセスを制限する
  • 商務省の犯罪対策グループによる最新の人権記録を更新し、「1 対多」の照合システムをサポートする顔認識技術の輸出に対して最も厳格な管理を実施する
  • 最後に、ワッセナー合意などのメカニズムを通じて、抑圧的な政権が米国の国境を越えて管理された技術を調達する能力を制限する

マイクロソフト

マイクロソフトは、顔認識システムの倫理的問題に対処するためのいくつかの原則を確立しました。 同社は、顧客がこの技術の倫理的な使用をより意識するのに役立つトレーニング リソースと新しい資料をリリースしました。

マイクロソフトは、顧客との緊密な連携に加えて、さまざまな年齢や肌の色の顔を認識するテクノロジの能力を向上させるために懸命に取り組んでいます。 Microsoft の顔認識技術は最近、NIST によって評価され、そのアルゴリズムは 127 のテストで最も正確または最も正確に近いと評価されたと報告されました。

マイクロソフトは、透明性とサードパーティのテストと比較に対処するための新しい法律を推進しています。 透明性を促進するために、Microsoft は、テクノロジー企業がドキュメントと顔認識サービスを提供して、テクノロジーの機能と制限を説明することを提案しています。

また、第三者のプロバイダーを雇って、商用の顔認識サービス プロバイダーを独自にテストし、その結果を公開して、偏見や差別に関連する問題に対処する法律の必要性も強調されました。

アマゾン

2020年、Amazonは法執行機関による同社の顔認識技術「Amazon Rekognition」の使用に1年間のモラトリアムを課しました。 さらに、Amazon は、公共の安全と法執行のシナリオでの使用を検証して、潜在的な一致を絞り込みました.

Amazon はまた、最大のセキュリティを確保するために追加の認証レイヤーを研究する特許を申請しています。 これらの中には、笑顔、まばたき、頭を傾けるなどのアクションを実行するようユーザーに求めるものがあります。

顔認識は侵襲的ですか?

顔認識技術の主な問題と失敗は、進歩の欠如、データセットの多様性、非効率的なシステム処理に起因しています。 ただし、いくつかの倫理原則を採用することで、侵略的な行為を避けることができます。

法執行アプリケーションの不具合を修正し、人工知能が内部でどのように機能するかについて透明性を提供し、利害関係者の説明責任を強化し、同意と事前通知による監視を行い、人権侵害を回避するためのより厳格な法律を制定することにより、偏見を防止または最小限に抑えるために、顔認識の公平性を排除します。

顔認識技術は、現実世界のさまざまな用途に無限の可能性を秘めています。 ただし、この技術の倫理的懸念に対処することは、この技術を人類に恩恵をもたらすために不可欠です。

セキュリティインシデントが発生した場合はどうすればよいですか? 被害を最小限に抑え、時間とお金を節約するために、インシデント対応で処理および管理します。