أخلاقيات التعرف على الوجه: القضايا والحلول الأساسية
نشرت: 2022-01-25يعتبر التعرف على الوجه أحد الأعاجيب التكنولوجية الرائعة.
محق في ذلك ، لأنه يمكنه التعرف على وجه بشري من صورة أو مقطع فيديو أو في الوقت الفعلي. لقد قطعت أنظمة التعرف على الصور شوطًا طويلاً من بدايتها إلى اعتمادها في تطبيق القانون والاستخدام الواسع النطاق في أجهزة المستهلك من حيث الدقة والسرعة والخوارزميات.
نظرًا للخلافات العديدة التي تحيط بأخلاقيات التعرف على الوجه ، مثل الاحتيال في الهوية ومخاوف انتهاك الخصوصية التي أعرب عنها نقاد الخصوصية والمدافعون ، فقد استقبلنا بسؤال المليون دولار: هل يحتاج التعرف على الوجه إلى حساب أخلاقي لجعله أكثر إنصافًا و مؤثرة؟
ما هي القضايا الأخلاقية لاستخدام تقنية التعرف على الوجه؟
في السنوات الأخيرة ، شكك النقاد في دقة أنظمة التعرف على الوجه ودورها في تزوير الهوية. ورطت وكالات إنفاذ القانون خطأً أشخاصًا أبرياء في أعمال شغب في عدة قضايا. بالإضافة إلى ذلك ، تظل إدارة الهوية والتخزين موضع تساؤل للعديد من دعاة الخصوصية في جميع أنحاء العالم. يبدو معقدًا ، أليس كذلك؟
المصدر: مجلة AMA للأخلاقيات
أهم ستة مخاوف أخلاقية تتعلق بأنظمة التعرف على الوجه تشمل التحيز العنصري والمعلومات المضللة ، والتمييز العنصري في إنفاذ القانون ، والخصوصية ، ونقص الموافقة المستنيرة والشفافية ، والمراقبة الجماعية ، وانتهاكات البيانات ، والدعم القانوني غير الفعال. دعونا نفحص كل منهم بالتفصيل.
1. التحيز العنصري بسبب عدم دقة الاختبار
يظل التحيز العنصري أحد الاهتمامات الرئيسية لأنظمة التعرف على الوجه. على الرغم من أن خوارزميات التعرف على الوجه تضمن دقة تصنيف تزيد عن 90٪ ، إلا أن هذه النتائج ليست عالمية.
ظهرت تطورات مثيرة للقلق تتحدى أخلاقيات التعرف على الوجه مرارًا وتكرارًا في الماضي القريب. أكثر من نصف البالغين الأمريكيين ، أو ما يقرب من 117 مليون شخص ، لديهم صور على شبكة التعرف على الوجه لتطبيق القانون. ومع ذلك ، فمن المقلق أن الأخطاء التي تم اكتشافها في نظام التعرف على الوجوه كانت أكثر شيوعًا على الوجوه ذات البشرة الداكنة ، ولكن أخطاء أقل عند مطابقة الوجوه ذات البشرة الفاتحة.
في يوليو 2020 ، أجرى المعهد الوطني للمعايير والتكنولوجيا (NIST) تقييمات مستقلة لتأكيد هذه النتائج. وذكرت أن تقنيات التعرف على الوجه لـ 189 خوارزمية أظهرت تحيزًا عرقيًا تجاه النساء ذوات البشرة الملونة. خلص المعهد القومي للمعايير والتقنية (NIST) أيضًا إلى أنه حتى أفضل خوارزميات التعرف على الوجه التي تمت دراستها لا يمكنها تحديد الشخص الذي يرتدي القناع بشكل صحيح بنسبة تقارب 50٪ من الوقت.
2. التمييز العنصري في إنفاذ القانون
في كشف حديث ، أصدرت الحكومة الفيدرالية الأمريكية تقريرًا أكد مشاكل التمييز في خوارزميات التعرف على الوجه. عادة ما يعمل نظامها بشكل فعال مع وجوه الذكور البيض في منتصف العمر ولكن بشكل سيئ بالنسبة للأشخاص الملونين وكبار السن والنساء والأطفال. يمكن لهذه الخوارزميات المنحازة عنصريًا والمعرضة للخطأ أن تنشر الفوضى ، بما في ذلك الاعتقالات غير المشروعة ، والسجن لفترات طويلة ، وحتى عنف الشرطة المميت.
35٪
من أخطاء التعرف على الوجه تحدث عند التعرف على النساء ذوات البشرة الملونة ، مقارنة بنسبة 1٪ للذكور البيض.
المصدر: G2
تعتمد وكالات إنفاذ القانون مثل شرطة الكابيتول بالولايات المتحدة على قواعد بيانات mugshot لتحديد الأفراد الذين يستخدمون خوارزميات التعرف على الوجه. هذا يؤدي إلى حلقة تغذية إلى الأمام ، حيث تؤدي استراتيجيات الشرطة العنصرية إلى اعتقالات غير متكافئة وبريئة.
بشكل عام ، بيانات التعرف على الوجه غير كاملة. يمكن أن يؤدي إلى عقوبات على الجرائم التي لم ترتكب. على سبيل المثال ، قد يؤدي تغيير طفيف في زاوية الكاميرا أو مظهرها ، مثل تسريحة شعر جديدة ، إلى حدوث أخطاء.
3. خصوصية البيانات
الخصوصية هي أحد الاهتمامات العامة ، ويرجع ذلك أساسًا إلى الافتقار إلى الشفافية في كيفية تخزين المعلومات وإدارتها. يتعدى التعرف على الوجوه على حق المواطنين الأصيل في الخضوع للمراقبة الحكومية المستمرة والاحتفاظ بصورهم دون موافقة.
في عام 2020 ، حظرت المفوضية الأوروبية تقنية التعرف على الوجه في الأماكن العامة لمدة تصل إلى خمس سنوات لإجراء تغييرات على إطارها القانوني وتضمين إرشادات حول الخصوصية والإساءة الأخلاقية.
تتعلق مخاوف الخصوصية المتعلقة بالتعرف على الوجه بممارسات تخزين البيانات غير الآمنة التي يمكن أن تكشف بيانات التعرف على الوجه وغيرها من التهديدات الأمنية المحتملة. تستمر معظم المؤسسات في استضافة بيانات الوجه الخاصة بها على الخوادم المحلية ، مما يؤدي إلى ثغرات أمنية ونقص في محترفي أمن تكنولوجيا المعلومات لضمان أمن الشبكة.
يمكن أن تضمن تقنيات التعرف على الوجوه أقصى قدر من أمان البيانات عند استضافتها على السحابة. ومع ذلك ، لا يمكن ضمان سلامة البيانات إلا من خلال التشفير المناسب. يعد نشر موظفي الأمن السيبراني لتكنولوجيا المعلومات أمرًا ضروريًا لتخزين البيانات بشكل مناسب مع توفير تحكم المستهلك لتحسين المساءلة ومنع حركة المرور الضارة.
على الجانب الأكثر إشراقًا ، تعد المنتجات الاستهلاكية المجهزة بتقنيات التعرف على الوجه أقل إثارة للجدل ، نظرًا لخيار تعطيل الميزة أو عدم استخدامها. ومع ذلك ، لا تزال شركات السلع الاستهلاكية ضحية الحظر بسبب تآكل الخصوصية. لكنهم يواصلون تقديم منتجات محملة بتكنولوجيا الوجه من خلال تسويقها كميزة أمان متقدمة.
التصميم على السير في الطريق القانوني مفتوح للأجهزة التي تسمح للضحية بالسعي للحصول على تعويض مالي عن انتهاك الخصوصية. على سبيل المثال ، قام عملاق وسائل التواصل الاجتماعي Facebook بتسوية دعوى قضائية جماعية بقيمة 650 مليون دولار في إلينوي بشأن جمع صور غير متاحة للجمهور للتعرف على الوجه.
ومع ذلك ، لا تزال الخصوصية تمثل مشكلة بالنسبة لوكالات إنفاذ القانون التي تستخدم تقنية التعرف على الوجه لمراقبة المواطنين وفحصهم وتتبعهم دون علمهم بالسلامة العامة والأمن. وقد أثار ذلك احتجاجات عديدة دعت إلى تشديد اللوائح لمنح المواطنين مزيدًا من السيطرة على المشاركة والشفافية حول التخزين والحوكمة.
4. الافتقار إلى الموافقة المستنيرة والشفافية
الخصوصية هي مشكلة في أي شكل من أشكال التنقيب عن البيانات ، خاصة عبر الإنترنت ، حيث تكون معظم المعلومات التي تم جمعها مجهولة المصدر. تعمل خوارزميات التعرف على الوجه بشكل أفضل عند اختبارها وتدريبها على مجموعات بيانات كبيرة من الصور ، ويتم التقاطها بشكل مثالي عدة مرات في ظل ظروف وزوايا إضاءة مختلفة.
أكبر مصادر الصور هي المواقع على الإنترنت ، وخاصة صور Flickr العامة ، التي يتم تحميلها بموجب تراخيص حقوق النشر التي تسمح بإعادة الاستخدام الليبرالي وأحيانًا منصات الوسائط الاجتماعية غير المشروعة.
جمع العلماء في Microsoft Research ومقرها واشنطن أكبر مجموعة بيانات في العالم ، MSCeleb5 ، تحتوي على ما يقرب من 10 ملايين صورة لـ 100000 شخص ، بما في ذلك الموسيقيين والصحفيين والأكاديميين ، تم إزالتها من الإنترنت.
في عام 2019 ، قام موقع الفنان آدم هارفي المقيم في برلين والمسمى MegaPixels بوضع علامة على مجموعات البيانات هذه وغيرها. إلى جانب التقني والمبرمج Jules LaPlace ، أظهر أن معظم القائمين بالتحميل قد شاركوا صورهم علانية. لكن تم إساءة استخدامها لتقييم وتحسين منتجات المراقبة التجارية.
5. المراقبة الجماعية
عند استخدامه جنبًا إلى جنب مع الكاميرات في كل مكان وتحليلات البيانات ، يؤدي التعرف على الوجه إلى مراقبة جماعية يمكن أن تعرض حرية المواطنين وحقوق الخصوصية للخطر. بينما تساعد تقنية التعرف على الوجه الحكومات في إنفاذ القانون من خلال تعقب المجرمين ، فإنها تقوض أيضًا حقوق الخصوصية الأساسية للأشخاص العاديين والأبرياء.
في الآونة الأخيرة ، تلقت المفوضية الأوروبية رسالة مفتوحة من 51 منظمة تدعو إلى فرض حظر شامل على جميع أدوات التعرف على الوجه للمراقبة الجماعية. في تحول آخر للأحداث ، وقع أكثر من 43 ألف مواطن أوروبي على عريضة "استعادة وجهك" تدعو إلى حظر ممارسات المراقبة الجماعية البيومترية في الاتحاد الأوروبي.
لقد تحدت سلسلة الأحداث الأخيرة من أخلاقيات تقنية التعرف على الوجه بسبب الاستخدام الجامح للذكاء الاصطناعي (AI) للتلاعب بالناس والوكالات الحكومية والديمقراطية الجماعية وتهديدهم.
يعد الذكاء الاصطناعي والتعلم الآلي (ML) من التقنيات المدمرة التي يمكنها الاستفادة من تقنيات التعرف على الوجه الآمنة. من المهم رسم خطوط حمراء قبل إساءة استخدامها لسرقة الهوية والاحتيال.

6. خروقات البيانات وعدم فاعلية الدعم القانوني
يمكن أن تثير انتهاكات البيانات مخاوف خطيرة تتعلق بالخصوصية لكل من الجمهور والحكومة.
في حين أن الخروقات الأمنية هي مصدر قلق كبير للمواطنين ، فقد أدى تطوير هذه التكنولوجيا إلى تقدم في الأمن السيبراني وزيادة استخدام التخزين المستند إلى السحابة. مع طبقة الأمان المضافة مثل التشفير ، يمكن حماية البيانات المخزنة على السحابة من الاستخدام الضار.
في مؤتمر Black Hat السنوي للقراصنة الذي نظمه باحثو الأمن في لاس فيجاس ، كسر المتسللون مصادقة مستخدم iPhone FaceID من Apple في 120 ثانية فقط.
تزيد مثل هذه الأحداث من ضعف البيانات المخزنة أمام المتسللين ، مما يزيد في النهاية من احتمالية سرقة جهاز Face ID في الجرائم الخطيرة. ضحايا سرقة الوجه لديهم خيارات قانونية أقل نسبيًا لمتابعة.
لا تمنح اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR) الباحثين أساسًا قانونيًا لجمع صور لوجوه الأشخاص لأغراض البحث البيومتري دون موافقتهم. لدى الولايات المتحدة قوانين مختلفة فيما يتعلق باستخدام المعلومات البيومترية للفرد دون موافقته.
كيفية استخدام أدوات التعرف على الوجه أخلاقيا
يمكن لمستخدمي التعرف على الوجه اعتماد المبادئ التالية التي اقترحها الاتحاد الأمريكي للحريات المدنية (ACLU) لضمان الاستخدام الأخلاقي لهذه التكنولوجيا:
- التجميع: يجب على المؤسسات الحصول على موافقة خطية ومستنيرة من المواطنين قبل إدراج بيانات القياسات الحيوية الخاصة بهم في قاعدة بيانات التعرف على الوجه.
- الاستخدام: يجب على المستخدمين الامتناع عن استخدام أنظمة التعرف على الوجه لتحديد لون البشرة أو العرق أو الدين أو الأصل القومي أو الجنس أو العمر أو الإعاقة.
- الإفصاح: لا ينبغي تداول نتائج نظام التعرف على الوجه أو مشاركتها دون الحصول على موافقة كتابية مستنيرة من موضوع البيانات.
- الوصول: يجب أن يتمتع المواطنون بالحق في الوصول إلى معلومات وجههم وتعديلها وحذفها ، إلى جانب سجلات أي تغييرات تم إجراؤها على البيانات.
- سوء الاستخدام: يجب على المؤسسات التي تستضيف السجلات المتاحة للجمهور والمتعلقة بهوية الفرد اتخاذ تدابير استباقية وضوابط مناسبة لمنع إساءة استخدامها من إنشاء قاعدة بيانات بصمة الوجه. تتضمن بعض الإجراءات تقييد الوصول الآلي إلى قواعد البيانات الحساسة وتعاقدًا مع مطالبة الشركاء بالالتزام بإرشادات الاستخدام الأخلاقية.
- الأمان: يجب أن يكون لدى المؤسسات متخصصون أمنيون مخصصون لاستضافة وإدارة وتأمين معلومات التعرف على الوجه.
- المساءلة: يجب على المستخدمين النهائيين الاحتفاظ بمسار تدقيق يتضمن جمع المعلومات واستخدامها وتفاصيل الإفصاح جنبًا إلى جنب مع طوابع التاريخ والوقت وتفاصيل المستخدمين الذين يطلبون المعلومات.
- الوصول الحكومي: يجوز للمنظمات منح الحكومة حق الوصول إلى المعلومات السرية بموجب قانون حماية البيانات لعام 1974 أو عند استلام مذكرة سبب محتمل.
- الشفافية: يجب على المنظمات تحديد سياسات الامتثال واستخدام البيانات مع تقديم التدابير الفنية اللازمة للتحقق من المساءلة.
أمثلة على الاستخدام الأخلاقي لتقنية التعرف على الوجه
تعد تقنية التعرف على الوجوه في صميم معظم شركات التكنولوجيا التي تركز على سلامة العملاء مع حماية أنظمتها من التهديدات الأمنية المحتملة. دعونا ندرس ثلاثة أمثلة من هذه الشركات التي تستخدم التعرف على الوجه أخلاقياً.
آي بي إم
فرضت شركة IBM العملاقة للتكنولوجيا قيودًا شاملة على مبيعات تقنية التعرف على الوجه للتنظيم الفيدرالي في الولايات المتحدة. بالإضافة إلى ذلك ، اقترحت شركة IBM توصيات محددة إلى وزارة التجارة الأمريكية لفرض قيود أكثر صرامة على تصدير أنظمة التعرف على الوجه في بعض الحالات.
كما دفعت إلى التنظيم الدقيق ، وهي خطوة لفرض قيود أكثر صرامة على الاستخدامات النهائية والمستخدمين والتي يمكن أن تسبب ضررًا اجتماعيًا كبيرًا. كما اقترحت ستة تغييرات في كيفية عمل تقنيات التعرف على الوجه للعثور على التطابقات ، بما في ذلك:
- تقييد تقنيات التعرف على الوجه التي تستخدم "واحد لأكثر" الاستخدامات النهائية المطابقة للمراقبة الجماعية ، والتنميط العنصري ، وغيرها من المجالات الحساسة التي يمكن أن تنتهك حقوق الإنسان
- الحد من تصدير أنظمة "واحد إلى متعدد" من خلال التحكم في تصدير كل من الكاميرات عالية الدقة والخوارزميات المستخدمة لجمع البيانات وتحليلها مقابل قاعدة بيانات
- فرض قيود على بعض الحكومات الأجنبية التي تشتري مكونات الحوسبة السحابية واسعة النطاق لأنظمة التعرف على الوجه المتكاملة.
- تقييد الوصول إلى قواعد بيانات الصور عبر الإنترنت التي يمكن استخدامها لتدريب أنظمة التعرف على الوجوه من شخص إلى العديد
- تحديث أحدث سجلات حقوق الإنسان من مجموعات مكافحة الجريمة التابعة لوزارة التجارة وتنفيذ الرقابة الصارمة على تصدير تقنيات التعرف على الوجه التي تدعم أنظمة المطابقة "واحد إلى متعدد"
- أخيرًا ، الحد من قدرة الأنظمة القمعية على شراء التقنيات الخاضعة للرقابة خارج حدود الولايات المتحدة من خلال آليات مثل اتفاقيات فاسينار
مايكروسوفت
أنشأت Microsoft عدة مبادئ لمعالجة القضايا الأخلاقية لأنظمة التعرف على الوجه. لقد أصدرت موارد تدريبية ومواد جديدة لمساعدة عملائها على أن يصبحوا أكثر وعيًا بالاستخدام الأخلاقي لهذه التكنولوجيا.
بالإضافة إلى العمل عن كثب مع عملائها ، تعمل Microsoft جاهدة لتحسين قدرة التكنولوجيا على التعرف على الوجوه عبر مجموعة واسعة من الأعمار ولون البشرة. تم تقييم تقنيات التعرف على الوجه من Microsoft مؤخرًا بواسطة NIST ، والتي ذكرت أن خوارزمياتها تم تصنيفها على أنها الأكثر دقة أو قريبة من الأكثر دقة في 127 اختبارًا.
تضغط Microsoft من أجل قوانين جديدة لمعالجة الشفافية والاختبار والمقارنة من قبل طرف ثالث. لتشجيع الشفافية ، تقترح Microsoft أن تقدم شركات التكنولوجيا خدمات التوثيق والتعرف على الوجه لتحديد قدرات التكنولوجيا وقيودها.
كما سلطت الضوء على الحاجة إلى تشريع لتوظيف مقدمي خدمات من أطراف ثالثة لاختبار مقدمي خدمات التعرف على الوجه التجاريين بشكل مستقل ونشر نتائجهم لمعالجة القضايا المتعلقة بالتحيز والتمييز.
أمازون
في عام 2020 ، فرضت أمازون حظراً لمدة عام على استخدام جهات إنفاذ القانون لتقنية التعرف على الوجه "Amazon Rekognition". بالإضافة إلى ذلك ، قامت أمازون بالتحقق من صحة استخدامها في سيناريوهات السلامة العامة وإنفاذ القانون لتضييق نطاق المطابقات المحتملة.
تقدمت أمازون أيضًا بطلب للحصول على براءة اختراع للبحث في طبقات المصادقة الإضافية لضمان أقصى قدر من الأمان. تتضمن بعض هذه الإجراءات مطالبة المستخدمين بأداء إجراءات مثل الابتسام أو الوميض أو إمالة رؤوسهم.
هل التعرف على الوجه تدخلي؟
تنبع المشاكل والإخفاقات الرئيسية في تقنية التعرف على الوجه من نقص التقدم والتنوع في مجموعات البيانات والتعامل غير الفعال مع النظام. ومع ذلك ، فإن تبني بعض المبادئ الأخلاقية يمكن أن يتجنب جعلها غازية.
القضاء على الحياد في التعرف على الوجه لمنع أو تقليل التحيز عن طريق إصلاح الثغرات في تطبيقات إنفاذ القانون ، وتوفير الشفافية في كيفية عمل الذكاء الاصطناعي داخليًا ، وفرض مساءلة أصحاب المصلحة ، والمراقبة بالموافقة والإشعار المسبق ، وسن تشريعات أكثر صرامة لتجنب انتهاكات حقوق الإنسان.
تتمتع تقنية التعرف على الوجوه بإمكانيات لا حصر لها لمختلف التطبيقات في احتياجات العالم الحقيقي. ومع ذلك ، فإن معالجة المخاوف الأخلاقية لهذه التكنولوجيا أمر حيوي لجعلها نعمة للإنسانية.
ماذا تفعل في حالة وقوع حادث أمني؟ تعامل معها وإدارتها من خلال الاستجابة للحوادث للحد من الضرر وتوفير الوقت والمال.