面部識別的倫理:關鍵問題和解決方案

已發表: 2022-01-25

面部識別被認為是令人著迷的技術奇蹟之一。

沒錯,因為它可以從照片、視頻或實時識別人臉。 圖像識別系統從一開始就在執法中得到採用,並在準確性、速度和算法方面廣泛應用於消費設備,已經走過了漫長的道路。

鑑於圍繞面部識別倫理的許多爭議,例如隱私批評者和倡導者所表達的身份欺詐和隱私侵犯問題,我們面臨著一個價值數百萬美元的問題:面部識別是否需要進行道德清算以使其更加公平和有影響?

使用面部識別技術有哪些倫理問題?

近年來,批評者質疑面部識別系統在身份欺詐中的準確性和作用。 執法機構在多起事件中錯誤地將無辜者牽連到騷亂中。 此外,身份管理和存儲對於全球許多困擾隱私倡導者來說仍然存在疑問。 看起來很複雜,不是嗎?

面部識別倫理學 ama 倫理學雜誌

資料來源: AMA 倫理雜誌

與面部識別系統相關的六大道德問題包括種族偏見和錯誤信息、執法中的種族歧視、隱私、缺乏知情同意和透明度、大規模監控、數據洩露和低效的法律支持。 讓我們詳細檢查它們中的每一個。

1. 測試不准確導致的種族偏見

種族偏見仍然是面部識別系統的主要關注點之一。 儘管人臉識別算法可以確保分類準確率超過 90%,但這些結果並不普遍。

最近,挑戰面部識別倫理的令人擔憂的事態發展一次又一次地出現。 超過一半的美國成年人,即近 1.17 億人,在執法部門的面部識別網絡上擁有照片。 然而,令人不安的是,在人臉識別系統中檢測到的錯誤在膚色較深的人臉中更為常見,但在匹配淺膚色人臉時錯誤較少。

2020 年 7 月,美國國家標準與技術研究院 (NIST) 進行了獨立評估以確認這些結果。 據報導,189 種算法的面部識別技術顯示出對有色人種女性的種族偏見。 NIST 還得出結論,即使是研究過的最好的面部識別算法,也有近 50% 的時間無法正確識別戴口罩的人。

2. 執法中的種族歧視

在最近的一次披露中,美國聯邦政府發布了一份報告,證實了其面部識別算法中存在歧視問題。 它的系統通常對中年白人男性的面孔有效,但對有色人種、老人、婦女和兒童的面孔效果不佳。 這些帶有種族偏見、容易出錯的算法可能會造成嚴重破壞,包括錯誤逮捕、長期監禁,甚至是致命的警察暴力。

35%

識別有色女性時會發生面部識別錯誤,而白人男性則為 1%。

資料來源:G2

美國國會警察等執法機構依靠面部照片數據庫來識別使用面部識別算法的個人。 這導致了一個前饋循環,種族主義警務策略導致不成比例的無辜逮捕。

總的來說,人臉識別數據是不完善的。 它可能導致對未犯下的罪行進行處罰。 例如,攝像機角度或外觀的微小變化(例如新髮型)可能會導致錯誤。

3. 數據隱私

隱私是公眾普遍關注的問題之一,主要是由於信息的存儲和管理方式缺乏透明度。 人臉識別侵犯了公民在未經同意的情況下受到政府持續監視和保留其圖像的固有權利。

2020 年,歐盟委員會禁止在公共場所使用面部識別技術長達五年,以改變其法律框架,並納入有關隱私和道德濫用的指導方針。

關於面部識別的隱私問題與可能暴露面部識別數據和其他潛在安全威脅的不安全數據存儲做法有關。 大多數組織繼續在本地服務器上託管他們的面部數據,導致安全漏洞和缺乏 IT 安全專業人員來確保網絡安全。

當託管在雲上時,面部識別技術可以確保最大的數據安全性。 然而,數據的完整性只能通過適當的加密來保證。 部署 IT 網絡安全人員對於正確存儲數據至關重要,同時提供消費者控制以提高問責制並防止惡意流量。

從好的方面來說,配備面部識別技術的消費產品爭議較小,因為可以選擇禁用或不使用該功能。 然而,由於隱私侵蝕,消費品公司仍然是禁令的受害者。 但他們繼續通過將面部技術作為高級安全功能進行營銷來提供富含面部技術的產品。

走法律途徑的決定對允許受害者就隱私侵犯尋求經濟賠償的設備開放。 例如,社交媒體巨頭 Facebook 在伊利諾伊州就收集未公開用於面部識別的照片而提起的 6.5 億美元集體訴訟達成和解。

然而,對於使用面部識別技術來監控、掃描和跟踪公民的執法機構來說,隱私仍然是一個問題,他們不知道公共安全。 這引發了許多抗議活動,呼籲制定更嚴格的法規,讓公民對存儲和治理的參與和透明度有更多控制權。

4. 缺乏知情同意和透明度

隱私是任何形式的數據挖掘的一個問題,尤其是在線數據挖掘,其中大多數收集的信息都是匿名的。 面部識別算法在對大型圖像數據集進行測試和訓練時效果更好,理想情況下是在不同的照明條件和角度下多次捕獲。

圖片的最大來源是在線網站,尤其是公開的 Flickr 圖片,這些圖片是根據版權許可上傳的,允許自由重複使用,有時甚至是非法的社交媒體平台。

位於華盛頓的微軟研究院的科學家們積累了世界上最大的數據集 MSCeleb5,其中包含從互聯網上抓取的 100,000 人的近 1000 萬張圖像,其中包括音樂家、記者和學者。

2019 年,柏林藝術家 Adam Harvey 的網站 MegaPixels 標記了這些數據集和其他數據集。 他與技術專家兼程序員 Jules LaPlace 一起表明,大多數上傳者都公開分享了他們的照片。 但它們被濫用於評估和改進商業監控產品。

5. 大規模監視

當與無處不在的攝像頭和數據分析一起使用時,面部識別會導致大規模監控,這可能會損害公民的自由和隱私權。 雖然面部識別技術通過追踪犯罪分子來幫助政府執法,但它也損害了普通人和無辜者的基本隱私權。

最近,歐盟委員會收到了一封來自 51 個組織的公開信,呼籲全面禁止所有用於大規模監控的面部識別工具。 在另一輪事件中,超過 43,000 名歐洲公民簽署了“收回你的臉”請願書,呼籲禁止在歐盟進行大規模生物識別監控做法。

由於不守規矩地使用人工智能 (AI) 來操縱和威脅人們、政府機構和集體民主,最近發生的一連串事件對面部識別技術的倫理提出了挑戰。

人工智能和機器學習 (ML) 是可以利用安全面部識別技術的顛覆性技術。 在它們被濫用於身份盜竊和欺詐之前畫出紅線很重要。

6. 數據洩露和無效的法律支持

數據洩露會給公眾和政府帶來嚴重的隱私問題。

雖然安全漏洞是公民的主要擔憂,但這項技術的發展導致網絡安全的進步和基於雲的存儲的使用增加。 通過增加加密等安全層,可以保護存儲在雲中的數據免受惡意使用。

在拉斯維加斯安全研究人員組織的年度黑帽黑客大會上,黑客僅用了 120 秒就破解了蘋果的 iPhone FaceID 用戶身份驗證。

此類事件增加了存儲數據對黑客的脆弱性,最終增加了嚴重犯罪中 Face ID 盜竊的可能性。 面部盜竊受害者的法律選擇相對較少。

歐盟通用數據保護條例 (GDPR) 並未為研究人員提供法律依據,即在未經他們同意的情況下收集人臉照片進行生物識別研究。 對於未經個人同意而使用個人生物特徵信息,美國有不同的法律。

如何合乎道德地使用面部識別工具

面部識別用戶可以採用美國公民自由聯盟 (ACLU) 提出的以下原則,以確保以合乎道德的方式使用該技術:

  • 收集:機構在將其生物特徵數據納入面部識別數據庫之前,應獲得公民的知情書面同意。
  • 使用:用戶應避免使用面部識別系統來確定個人的膚色、種族、宗教、國籍、性別、年齡或殘疾。
  • 披露:未經數據主體知情的書面同意,不得交易或共享面部識別系統的結果。
  • 訪問:公民應該有權訪問、編輯和刪除他們的面部信息,以及對數據所做的任何更改的記錄。
  • 濫用:託管與個人身份相關的公開可用記錄的組織應採取積極措施和適當的控制措施,以防止其濫用建立面部指紋數據庫。 一些措施包括限制對敏感數據庫的自動訪問,並通過合同要求合作夥伴遵守道德使用指南。
  • 安全性:組織應該有專門的安全專業人員來託管、管理和保護面部識別信息。
  • 問責制:最終用戶必須維護審計跟踪,其中包括信息收集、使用和披露詳細信息,以及請求信息的用戶的日期和時間戳以及詳細信息。
  • 政府訪問:組織可以根據 1974 年《數據保護法》或在收到合理理由令時授予政府訪問機密信息的權限。
  • 透明度:組織必須定義合規性和數據使用政策,同時提供必要的技術措施來驗證問責制。

面部識別技術的道德使用示例

面部識別技術是大多數科技公司的核心,它們專注於客戶安全,同時保護他們的系統免受潛在的安全威脅。 讓我們來看看三個這樣的公司在道德上使用面部識別的例子。

IBM

科技巨頭 IBM 對其面部識別技術的銷售實施了全面限制,以適應美國的聯邦監管。 此外,IBM 還向美國商務部提出了具體建議,在某些情況下對面部識別系統的出口實施更嚴格的限制。

它還推動了精確監管,對可能造成重大社會危害的最終用途和用戶施加更嚴格的限制。 它還提出了面部識別技術如何尋找匹配項的六項變化,包括:

  • 限制使用“一對多”匹配最終用途的面部識別技術進行大規模監視、種族定性和其他可能侵犯人權的敏感領域
  • 通過控制用於收集和分析數據庫數據的高分辨率相機和算法的導出,限制“一對多”系統的導出
  • 限制某些外國政府為集成面部識別系統採購大型雲計算組件。
  • 限制對可用於訓練一對多人臉識別系統的在線圖像數據庫的訪問
  • 更新商務部打擊犯罪組織的最新人權記錄,並對支持“一對多”匹配系統的面部識別技術的出口實施最嚴格的控制
  • 最後,限制專制政權通過《瓦森納協定》等機制在美國境外採購受控技術的能力

微軟

Microsoft 制定了幾項原則來解決面部識別系統的道德問題。 它發布了培訓資源和新材料,以幫助其客戶更加了解該技術的道德使用。

除了與客戶密切合作外,微軟還在努力提高該技術識別各種年齡和膚色的面部的能力。 NIST 最近對微軟的面部識別技術進行了評估,報告稱其算法在 127 次測試中被評為最準確或接近最準確的算法。

微軟正在推動制定新的法律來解決透明度以及第三方測試和比較問題。 為了鼓勵透明度,微軟建議科技公司提供文檔和麵部識別服務,以描述該技術的功能和局限性。

它還強調需要立法聘請第三方提供商來獨立測試商業面部識別服務提供商並發布他們的結果,以解決與偏見和歧視相關的問題。

亞馬遜

2020 年,亞馬遜對執法部門使用其面部識別技術“Amazon Rekognition”實施了為期一年的暫停。 此外,亞馬遜已驗證其在公共安全和執法場景中的用途,以縮小潛在匹配範圍。

亞馬遜還申請了一項專利來研究額外的身份驗證層,以確保最大的安全性。 其中一些包括要求用戶執行諸如微笑、眨眼或歪頭之類的動作。

面部識別是否具有侵入性?

面部識別技術的主要問題和失敗源於缺乏先進性、數據集的多樣性和系統處理效率低下。 但是,採用一些道德原則可以避免使其具有侵入性。

通過修復執法應用程序中的故障、提供人工智能內部工作方式的透明度、強制利益相關者問責、在同意和事先通知的情況下進行監控以及製定更嚴格的立法以避免侵犯人權,消除面部識別的公正性,以防止或最大限度地減少偏見。

人臉識別技術在現實世界的各種應用需求中具有無限潛力。 然而,解決這項技術的倫理問題對於使其造福人類至關重要。

發生安全事故怎麼辦? 通過事件響應來處理和管理它,以限制損害並節省時間和金錢。