الذكاء الاصطناعي والأخلاق: النضال من أجل الثقة
نشرت: 2018-10-02لقد حضرت مؤخرًا مؤتمر الذكاء الاصطناعي وقمة علوم البيانات في لندن وتوجهت إلى حضور حلقة نقاش بعنوان الأخلاق والذكاء الاصطناعي. كان المتحدثون هم هارييت كينجابي ، المؤسس المشارك لشركة Not Terminator وإيما بيرست المديرة التنفيذية لشركة DataKind UK.
تعتبر الأخلاقيات مناقشة مثيرة للاهتمام ، وربما أهم جانب في تطوير الذكاء الاصطناعي (AI). أصدرنا العام الماضي الدليل الميداني للمسوقين للتعلم الآلي وناقشنا موضوع الذكاء الاصطناعي والأخلاقيات جنبًا إلى جنب مع موضوعات مثل الإنصاف وقابلية الشرح والأمن. إذا تم تطوير الذكاء الاصطناعي بشكل غير أخلاقي تمامًا ، فسوف نفقد الثقة فيه تمامًا ، لذلك علينا أن نبقيه في مقدمة الأذهان.
ناقشنا في كتابنا الإلكتروني:
حتى الآن ، تم نشر تعلم الآلة والذكاء الاصطناعي بشكل أساسي لأداء المهام ذات المستوى الأدنى ، وهي مهام عادية بشكل أساسي للمساعدة في تحسين الإنتاجية. لكن سرعان ما يمكنهم أن يقرروا حرفياً الحياة أو الموت. لن تكون السيارة ذاتية القيادة مسئولة عن نقل ركابها بأمان إلى وجهتهم فحسب ، بل ستكون مسئولة أيضًا عن الحفاظ على سلامة كل من حولهم. إنها مسألة وقت فقط عندما تجد السيارة ذاتية القيادة نفسها في موقف مستحيل ؛ لا مفر من وقوع حادث ، والخيار الوحيد هو بين التوجيه نحو المشاة A على اليسار أو المشاة B على اليمين. كيف سيقرر نظام الذكاء الاصطناعي تحت الغطاء الإجراء الذي يجب اتخاذه؟ بناء على الحجم؟ سن؟ الحالة الاجتماعية؟ وعندما يحاول محققو الحادث تحديد ما الذي أثر على النتيجة ، هل سيجدون منطقًا مزعجًا من الناحية الأخلاقية مدمجًا فيه؟
لقد أربكتنا هذه الأسئلة بالفعل ، لكننا رأينا بعض النتائج منذ ذلك الحين. لا تتم مناقشة موضوع الأخلاق والذكاء الاصطناعي داخل قاعات المؤتمرات وفي الجامعات فحسب ، بل شق طريقه إلى الصفحات التشريعية وسرعان ما سيتم حياكته في نسيج كيفية عملنا كمجتمع.
الذكاء الاصطناعي الجيد والسيئ - يمكن أن يحدث الكثير في عام واحد
منذ إصدار كتابنا الإلكتروني للتعلم الآلي قبل أقل من عام ، حدثت العديد من التطورات في مجال الذكاء الاصطناعي (للأفضل أو للأسوأ).
أبلغت Tesla عن حوادث الطيار الآلي مع السيارات ذاتية القيادة ، وظهرت تقنيات مثل Deepfake ، حيث يمكن استخدام تقنية التعلم العميق لإنشاء وسائط رقمية من خلال تركيب صور لأشخاص حقيقيين في مواقف لم يشاركوا فيها بقصد إنشاء أخبار مزيفة أو الخدع.
في حادثة مؤسفة للغاية ، قتلت سيارة ذاتية القيادة تابعة لشركة أوبر أحد المشاة . حدثت هذه المأساة لأن مجتمعنا يثق في تقنية الذكاء الاصطناعي. على الرغم من أنه اكتشف لاحقًا أن الخطأ البشري لعب دورًا في الحادث ، إلا أنه بمجرد تصنيف هذه الأشياء على أنها منظمة العفو الدولية ، من الصعب القول إن التكنولوجيا ليست ذكية بما يكفي لتترك لأجهزتها الخاصة. على الرغم من هذه المأساة المروعة ، تواصل شركات السيارات ( وإيكيا ) الإعلان عن خطط جديدة للسيارات ذاتية القيادة.
وعلى الرغم من أن أخلاقيات الذكاء الاصطناعي مطروحة للنقاش بسبب قدرته على إحداث الضرر ، فإن نفس الثقة في تطويره هي التي أدت أيضًا إلى العديد من النتائج المذهلة التي نستفيد منها حاليًا.
التكنولوجيا ، كما هو الحال دائمًا ، هي جزء من المشكلة وجزء من الحل. ضع في اعتبارك الوتيرة السريعة للتطوير والتطبيقات الجديدة للذكاء الاصطناعي التي تظهر يوميًا مثل:
- الذكاء الاصطناعي لتحليل صور الورم والتعرف على أنواع سرطان الرئة
- الذكاء الاصطناعي يجعل الجميع مصورًا رائعًا
- الذكاء الاصطناعي الذي يمكن أن يجعل مزارع الخوادم أكثر كفاءة
ربما تكون قد سمعت أو لم تسمع عن هذه التقنيات الرائعة والمفيدة. ينتشر ضجة وسائل الإعلام حول المأساة بشكل أكبر. يحيط الضجيج والإثارة بالأخطاء من تقنية الذكاء الاصطناعي لأنها تجذب الكثير من الاهتمام ؛ من الإخفاقات العادية والمضحكة في كثير من الأحيان لمساعدي الذكاء الاصطناعي إلى قصص حول مخاوف الخصوصية الأكثر خطورة .
النقطة المهمة هي ، سواء سمعت عن ذلك أم لا ، أن الذكاء الاصطناعي يقوم بالعديد من الأشياء الإيجابية ، على الرغم من أخطائه التي تم الإعلان عنها بشكل كبير. هذه التجارب والمحن جعلت الناس يتحدثون والمناقشات التي تجري على مستوى أعلى ستلعب بالتأكيد دورًا في تشكيل مستقبلنا.
جهد منظم لتطوير الذكاء الاصطناعي أخلاقياً
اجتذبت الأخطاء التي تم الإعلان عنها بشكل كبير ، والانقطاعات الأكاديمية ، والحدود التكنولوجية المتكسرة المحيطة بتطوير الذكاء الاصطناعي ، انتباه القادة في جميع أنحاء العالم. بعد كل شيء ، الذكاء الاصطناعي قيد الاستخدام بالفعل ويستعد المجتمع المدني لقبوله على نطاق واسع بطرق متنوعة.
يجب على الحكومات والجمعيات أن تراقبها وتتحدث عنها. والشيء الجيد هم. فيما يلي قائمة قصيرة بالأمثلة من أعلى رأسي:
- تثقيف تقنيي الذكاء الاصطناعي في المستقبل لتطوير التكنولوجيا لصالح البشرية ( AI4ALL ).
- تعمل الأمم المتحدة على فهم كيف يمكن أن تساعد في تحقيق النمو الاقتصادي والعمل من أجل الصالح العام
- البحث في الآثار الاجتماعية للذكاء الاصطناعي ( AI Now Institute )
- دعوة قادة التكنولوجيا في خطاب مفتوح إلى تبني تنمية تكنولوجية تتمحور حول الإنسانية وتتسم بالشفافية والقائمة على الثقة
- جعل الذكاء الاصطناعي جزءًا من العمل البرلماني: لجنة مجلس اللوردات في المملكة المتحدة المعنية بالذكاء الاصطناعي للنظر في الآثار الاقتصادية والأخلاقية والاجتماعية للذكاء الاصطناعي
نظام التشغيل الأخلاقي
نظام التشغيل الأخلاقي هو ممارسة إنشاء إطار عمل يحاول حماية التطور التكنولوجي في المستقبل من خلال تقليل المخاطر الفنية والسمعة المستقبلية. إنه لا يأخذ في الاعتبار فقط كيف يمكن أن تغير التكنولوجيا الجديدة العالم للأفضل ، ولكن كيف يمكن أن تلحق الضرر بالأشياء أو يساء استخدامها.

يقترح نظام التشغيل هذا بعض المجالات العامة التي يجب مراعاتها:
- الحقيقة والتضليل
هل يمكن تحويل التقنية التي تعمل عليها إلى أداة يمكن استخدامها "لتزييف" الأشياء؟ - مدمن
إنه لأمر رائع لمنشئ أداة جديدة أنها تحظى بشعبية كبيرة حيث يقضي الأشخاص الكثير من الوقت في استخدامها ، ولكن هل هي مفيدة لصحتهم؟ هل يمكن جعل الأداة أكثر كفاءة بحيث يقضي الأشخاص وقتهم جيدًا ، ولكن ليس إلى ما لا نهاية؟ كيف يمكن تصميمه لتشجيع الاستخدام المعتدل؟ - عدم المساواة
من الذي سيتمكن من الوصول ومن لا؟ هل سيتأثر أولئك الذين لن يتمكنوا من الوصول سلبًا؟ هل الأداة تؤثر سلبًا على الرفاه الاقتصادي والنظام الاجتماعي؟ - أخلاق مهنية
هل البيانات المستخدمة لبناء التكنولوجيا متحيزة بأي شكل من الأشكال؟ هل التكنولوجيا تعزز التحيز الحالي؟ هل يطور الفريق الأدوات متنوعًا بدرجة كافية للمساعدة في تحديد التحيزات على طول العملية؟ هل الأداة شفافة بما يكفي لكي يتمكن الآخرون من "تدقيقها"؟ مثال على الذكاء الاصطناعي في التوظيف للقضاء على التحيز - ولكن ماذا عن منشئيها ، ما هو التحيز الذي قد يحملونه؟ - مراقبة
هل تستطيع حكومة أو جيش تحويل التكنولوجيا إلى أداة مراقبة أو استخدامها للحد من حقوق المواطنين؟ هل البيانات المجمعة تسمح بمتابعة المستخدمين طوال حياتهم؟ من الذي لا تريده للوصول إلى هذه البيانات لأغراضهم؟ - التحكم في البيانات
ما هي البيانات التي تجمعها؟ هل تحتاجه؟ هل تستفيد منه؟ هل يشارك مستخدموك في هذا الربح؟ هل المستخدمين لديهم حقوق لبياناتهم؟ ما الذي يمكن أن يفعله الفاعلون السيئون بهذه البيانات؟ ماذا يحدث للبيانات إذا تم الاستحواذ على شركتك؟ - الثقة الضمنية
هل التكنولوجيا الخاصة بك لديها حقوق المستخدم؟ هل المصطلحات واضحة وسهلة الفهم؟ هل تخفي معلومات عن المستخدمين الذين قد يهتمون بهم؟ هل يمكن للمستخدمين الاشتراك وإلغاء الاشتراك في جوانب معينة مع الاستمرار في استخدام التكنولوجيا؟ هل كل المستخدمين خلقوا متساوين؟ - الكراهية والجرائم الأخرى
هل يمكن استخدام التقنية للتنمر أو التحرش؟ هل يمكن استخدامها لنشر الكراهية والتمييز ضد الآخرين؟ هل يمكن تسليحها؟
هناك الكثير من المجالات التي يجب مراعاتها ، ولكن لكل منها آثاره الخاصة التي لا تضحك. يقول نظام التشغيل الأخلاقي أنه بمجرد تحديد المخاطر من خلال تطوير محتمل للذكاء الاصطناعي ، يمكن مشاركتها بين أصحاب المصلحة لفحص المشكلة بالكامل.
التحرك نحو مستقبل ذكي وأخلاقي
اختتمت الجلسة التي حضرتها في مؤتمر الذكاء الاصطناعي وقمة علوم البيانات باستراتيجيات إضافية لمساعدة مطوري الذكاء الاصطناعي على المضي قدمًا بشكل أكثر أخلاقية. قالوا إن أخلاقيات التكنولوجيا يجب أن تُدرج في ثقافة الأعمال وأن تكون جزءًا من رؤية الشركة وأن صائدي المكافآت الأخلاقيين بالذكاء الاصطناعي يمكن أن يعملوا على غرار الطريقة التي يعمل بها صائدي الأخطاء!
مع دخول تشريعات خصوصية المستهلك الرئيسية مثل القانون العام لحماية البيانات وقانون خصوصية المستهلك في كاليفورنيا لعام 2018 حيز التنفيذ ، فإننا نرى بالفعل كيف ستشكل السياسة التقدم في علم البيانات.
تشير بعض الفرضيات إلى أن اللوائح ستبطئ من تطور الذكاء الاصطناعي. بينما قد يحدث ذلك في العملية ، إذا كان لدى المستهلكين ثقة أكبر في عدم إساءة استخدام بياناتهم ومعلوماتهم الشخصية ، فقد يؤدي ذلك إلى زيادة الثقة في العملية. قد يؤدي ذلك إلى زيادة الاستخدام والاعتماد - من يدري.
بالتأكيد ليس لدينا جميع الإجابات ولكننا نولي اهتمامًا وثيقًا للمناقشة.
اعتمادات الصورة
الصورة الرئيسية: Unsplash / Markus Spiske