التعلم غير الخاضع للإشراف: كيف تتعلم الآلات بمفردها

نشرت: 2021-03-19

يتيح التعلم غير الخاضع للإشراف للآلات التعلم بمفردها.

يمنح هذا النوع من التعلم الآلي (ML) تطبيقات الذكاء الاصطناعي القدرة على التعلم والعثور على أنماط مخفية في مجموعات البيانات الكبيرة دون إشراف بشري. يعد التعلم غير الخاضع للإشراف أمرًا حاسمًا أيضًا لتحقيق ذلك   الذكاء العام الاصطناعي.

البيانات الملصقة كثيفة العمالة وتستغرق وقتًا طويلاً ، وفي كثير من الحالات ، غير عملية. هذا هو المكان الذي يُحدث فيه التعلم غير الخاضع للإشراف فرقًا كبيرًا من خلال منح تطبيقات الذكاء الاصطناعي القدرة على التعلم دون تسميات وإشراف.

ما هو التعلم غير الخاضع للرقابة؟

التعلم غير الخاضع للإشراف (UL) هو أسلوب تعلم آلي يستخدم لتحديد الأنماط في مجموعات البيانات التي تحتوي على نقاط بيانات غير مصنفة وغير مسماة. في طريقة التعلم هذه ، يتم إعطاء نظام AI فقط بيانات الإدخال ولا توجد بيانات إخراج مقابلة.

على عكس التعلم الخاضع للإشراف ، لا يتطلب التعلم الآلي غير الخاضع للإشراف أن يقوم الإنسان بالإشراف على النموذج. يتيح عالم البيانات للآلة التعلم من خلال مراقبة البيانات وإيجاد الأنماط من تلقاء نفسها. بمعنى آخر ، تسمح هذه الفئة الفرعية للتعلم الآلي للنظام بالتصرف بناءً على المعلومات المعينة دون أي توجيه خارجي.

تعتبر تقنيات التعلم غير الخاضعة للإشراف ضرورية لإنشاء أنظمة ذكاء اصطناعي ذات ذكاء بشري. ذلك لأن الآلات الذكية يجب أن تكون قادرة على اتخاذ قرارات (مستقلة) من خلال تحليل كميات كبيرة من البيانات غير المميزة.

بالمقارنة مع خوارزميات التعلم الخاضعة للإشراف ، فإن خوارزميات UL أكثر مهارة في أداء المهام المعقدة. ومع ذلك ، تنتج نماذج التعلم الخاضع للإشراف نتائج أكثر دقة حيث يخبر المعلم النظام بوضوح ما يجب البحث عنه في البيانات المعينة. ولكن في حالة التعلم غير الخاضع للإشراف ، يمكن أن تكون الأمور غير متوقعة تمامًا.

الشبكات العصبية الاصطناعية التي تصنع   تعلم عميق   حقيقة ، قد يبدو أنها مدعومة بالتعلم غير الخاضع للإشراف. على الرغم من صحة ذلك ، يمكن أيضًا الإشراف على خوارزميات التعلم للشبكات العصبية إذا كان الناتج المطلوب معروفًا بالفعل.

يمكن أن يكون التعلم غير الخاضع للإشراف هدفًا في حد ذاته. على سبيل المثال ، يمكن استخدام نماذج UL للعثور على أنماط مخفية في أحجام ضخمة من البيانات وحتى لتصنيف نقاط البيانات وتمييزها. يتم تجميع نقاط البيانات غير المصنفة من خلال تحديد أوجه التشابه والاختلاف بينها.

بعض الأسباب التي تجعل التعلم غير الخاضع للإشراف ضروريًا.

  • البيانات غير المصنفة متوفرة بكثرة.
  • يعد تصنيف البيانات مهمة شاقة تتطلب عمالة بشرية. ومع ذلك ، يمكن أن تكون العملية نفسها مدعومة بـ ML ، مما يجعل وضع العلامات أسهل على الأشخاص المعنيين.
  • إنه مفيد لاستكشاف البيانات الخام وغير المعروفة.
  • إنه مفيد لإجراء التعرف على الأنماط في مجموعات البيانات الكبيرة.
يمكن تقسيم التعلم غير الخاضع للإشراف إلى فئتين: التعلم البارامتري غير الخاضع للإشراف والتعلم غير الخاضع للإشراف غير المعتمد .

كيف يعمل التعلم غير الخاضع للإشراف

ببساطة ، يعمل التعلم غير الخاضع للإشراف من خلال تحليل البيانات غير المصنفة وغير المصنفة وإيجاد الهياكل المخفية فيها.

في التعلم الخاضع للإشراف ، يغذي عالم البيانات النظام بالبيانات المصنفة ، على سبيل المثال ، صور القطط المصنفة على أنها قطط ، مما يسمح لها بالتعلم عن طريق القدوة. في التعلم غير الخاضع للإشراف ، يقدم عالم البيانات الصور فقط ، ومن مسؤولية النظام تحليل البيانات واستنتاج ما إذا كانت صور القطط.

يتطلب التعلم الآلي غير الخاضع للإشراف كميات هائلة من البيانات. في معظم الحالات ، ينطبق الأمر نفسه على التعلم الخاضع للإشراف حيث يصبح النموذج أكثر دقة مع المزيد من الأمثلة.

تبدأ عملية التعلم غير الخاضع للإشراف بتدريب علماء البيانات على الخوارزميات باستخدام مجموعات بيانات التدريب. نقاط البيانات في مجموعات البيانات هذه غير مصنفة وغير مصنفة.

الهدف التعليمي للخوارزمية هو تحديد الأنماط داخل مجموعة البيانات وتصنيف نقاط البيانات بناءً على نفس الأنماط المحددة. في مثال صور القطط ، يمكن لخوارزمية التعلم غير الخاضعة للرقابة أن تتعلم التعرف على السمات المميزة للقطط ، مثل شعيراتها وذيولها الطويلة ومخالبها القابلة للسحب.

إذا فكرت في الأمر ، فإن التعلم غير الخاضع للإشراف هو كيف نتعلم كيفية تحديد الأشياء وتصنيفها. لنفترض أنك لم تتذوق الكاتشب أو صلصة الفلفل الحار مطلقًا. إذا تم إعطاؤك زجاجتين "غير معنونتين" من الكاتشب وصلصة الفلفل الحار لكل منهما وطلب منك تذوقهما ، فستتمكن من التمييز بين النكهات.

ستتمكن أيضًا من تحديد خصائص كل من الصلصات (أحدهما حامض والآخر حار) حتى إذا كنت لا تعرف أسماء أي منهما. تذوق كل عدة مرات أكثر سيجعلك أكثر دراية بالنكهة. قريبًا ، ستتمكن من تجميع الأطباق بناءً على الصلصة المضافة فقط عن طريق تذوقها.

من خلال تحليل المذاق ، يمكنك العثور على ميزات محددة تميز الصوصين والأطباق الجماعية. لست بحاجة إلى معرفة أسماء الصلصات أو أسماء الأطباق لتصنيفها. قد ينتهي بك الأمر إلى استدعاء الصلصة الحلوة والصلصة الحارة الأخرى.

هذا مشابه لكيفية تحديد الآلات للأنماط وتصنيف نقاط البيانات بمساعدة التعلم غير الخاضع للإشراف. في نفس المثال ، سيكون التعلم تحت الإشراف شخصًا يخبرك بأسماء كل من الصلصات وكيف يتذوقها مسبقًا.

أنواع التعلم غير الخاضع للرقابة

يمكن تصنيف مشاكل التعلم غير الخاضعة للإشراف إلى مشاكل التكتل والترابط .

تجمع

التجميع أو التحليل العنقودي هو عملية تجميع الكائنات في مجموعات. يتم تجميع العناصر الأكثر تشابهًا معًا ، بينما يقع الباقي في مجموعات أخرى. أحد الأمثلة على التجميع هو تجميع مستخدمي YouTube استنادًا إلى سجل المشاهدة الخاص بهم.

اعتمادًا على كيفية عملها ، يمكن تصنيف المجموعات إلى أربع مجموعات على النحو التالي:

  • التجميع الحصري: كما يوحي الاسم ، يحدد التجميع الحصري أن نقطة البيانات أو الكائن يمكن أن يتواجد في مجموعة واحدة فقط.
  • المجموعات الهرمية: التدرج الهرمي يحاول إنشاء تسلسل هرمي من المجموعات. هناك نوعان من المجموعات الهرمية: التكتل والتقسيم . يتبع Agglomerative النهج التصاعدي ، ويعامل في البداية كل نقطة بيانات كمجموعة فردية ، ويتم دمج أزواج المجموعات أثناء انتقالها إلى أعلى التسلسل الهرمي. الانقسام هو عكس التكتل. تبدأ كل نقطة بيانات في مجموعة واحدة ويتم تقسيمها أثناء انتقالها إلى أسفل التسلسل الهرمي.
  • مجموعات متداخلة: يسمح التداخل بتجميع نقطة بيانات في مجموعتين أو أكثر من المجموعات.
  • المجموعات الاحتمالية: تستخدم الاحتمالية التوزيعات الاحتمالية لإنشاء مجموعات. على سبيل المثال ، يمكن تجميع "الجوارب الخضراء" و "الجوارب الزرقاء" و "القميص الأخضر" و "القميص الأزرق" في فئتين "خضراء" و "زرقاء" أو "جوارب" و "تي شيرت" ".

منظمة

تعلم قواعد الرابطة (ARL) هي طريقة تعلم غير خاضعة للرقابة تستخدم للعثور على العلاقات بين المتغيرات في قواعد البيانات الكبيرة. على عكس بعض خوارزميات التعلم الآلي ، فإن ARL قادرة على التعامل مع نقاط البيانات غير الرقمية.

بمعنى أبسط ، يتعلق ARL بإيجاد كيفية ارتباط متغيرات معينة ببعضها البعض. على سبيل المثال ، من المرجح أن يشتري الأشخاص الذين يشترون دراجة نارية خوذة.

يمكن أن يكون العثور على مثل هذه العلاقات مربحًا. على سبيل المثال ، إذا كان العملاء الذين يشترون المنتج X يميلون إلى شراء المنتج Y ، فيمكن لبائع التجزئة عبر الإنترنت أن يوصي بالمنتج Y لأي شخص يشتري المنتج X.

يستخدم تعلم قواعد الجمعيات if / then البيانات في جوهرها. يمكن أن تكشف هذه العبارات عن الارتباطات بين البيانات المستقلة. بالإضافة إلى ذلك ، يتم ملاحظة أنماط أو علاقات if / then باستخدام الدعم والثقة .

يحدد الدعم عدد مرات ظهور علاقة if / then في قاعدة البيانات. تحدد الثقة عدد المرات التي تم العثور فيها على أن علاقة if / then صالحة.

تحليل سلة السوق   و   تعدين استخدام الويب   أصبحت ممكنة مع قاعدة الارتباط.

خوارزميات التعلم غير الخاضعة للرقابة

يتم تنفيذ كل من تعلم قواعد التجميع والارتباط بمساعدة الخوارزميات.

خوارزمية Apriori ، وخوارزمية ECLAT ، وخوارزمية نمو النمط المتكرر (FP) هي بعض الخوارزميات البارزة المستخدمة لتنفيذ قاعدة الارتباط. أصبح التجميع ممكنًا من خلال الخوارزميات مثل تجميع الوسائل k وتحليل المكونات الرئيسية (PCA).

خوارزمية Apriori

تم تصميم خوارزمية Apriori لاستخراج البيانات. إنه مفيد لقواعد بيانات التعدين التي تحتوي على عدد كبير من المعاملات ، على سبيل المثال ، قاعدة بيانات تحتوي على قائمة بالعناصر التي اشتراها المتسوقون في السوبر ماركت. يتم استخدامه لتحديد الآثار الضارة للأدوية وفي تحليل سلة السوق للعثور على مجموعة العناصر التي من المرجح أن يشتريها العملاء معًا.

خوارزمية ECLAT

التكافؤ Class Clustering و Lattice Traversal ، أو اختصارًا ECLAT ، عبارة عن خوارزمية لاستخراج البيانات تُستخدم لتحقيق تعدين مجموعة العناصر والعثور على عناصر متكررة.

تستخدم خوارزمية Apriori تنسيق البيانات الأفقي ولذا تحتاج إلى مسح قاعدة البيانات عدة مرات لتحديد العناصر المتكررة. من ناحية أخرى ، يتبع ECLAT نهجًا رأسيًا وهو أسرع عمومًا لأنه يحتاج إلى فحص قاعدة البيانات مرة واحدة فقط.

خوارزمية نمو النمط المتكرر (FP)

تعد خوارزمية نمو النمط المتكرر (FP) نسخة محسنة من خوارزمية Apriori. تمثل هذه الخوارزمية قاعدة البيانات في شكل هيكل شجرة يعرف باسم شجرة أو نمط متكرر.

تستخدم هذه الشجرة المتكررة لتعدين الأنماط الأكثر شيوعًا. بينما تحتاج خوارزمية Apriori إلى مسح قاعدة البيانات n + 1 مرة (حيث n هو طول أطول نموذج) ، تتطلب خوارزمية نمو FP عمليتي مسح فقط.

K- يعني التجميع

تُستخدم العديد من التكرارات لخوارزمية الوسائل k على نطاق واسع في مجال علم البيانات. ببساطة ، تقوم خوارزمية التجميع k-mean بتجميع العناصر المتشابهة في مجموعات. يتم تمثيل عدد المجموعات بواسطة k . لذا ، إذا كانت قيمة k تساوي 3 ، فسيكون هناك إجمالي ثلاث مجموعات.

تقسم طريقة التجميع هذه مجموعة البيانات غير المسماة بحيث تنتمي كل نقطة بيانات إلى مجموعة واحدة فقط لها خصائص متشابهة. المفتاح هو العثور على مراكز K تسمى النقط الوسطى العنقودية .

ستحتوي كل مجموعة على مجموعة مركزية واحدة ، وعند رؤية نقطة بيانات جديدة ، ستحدد الخوارزمية أقرب مجموعة تنتمي إليها نقطة البيانات بناءً على مقاييس مثل المسافة الإقليدية.

تحليل المكون الرئيسي (PCA)

تحليل المكون الرئيسي (PCA) هو طريقة لتقليل الأبعاد تستخدم بشكل عام لتقليل أبعاد مجموعات البيانات الكبيرة. يقوم بذلك عن طريق تحويل عدد كبير من المتغيرات إلى متغير أصغر يحتوي تقريبًا على جميع المعلومات الموجودة في مجموعة البيانات الكبيرة.

قد يؤثر تقليل عدد المتغيرات على الدقة بشكل طفيف ، ولكنه قد يكون مقايضة مقبولة للبساطة. وذلك لأن مجموعات البيانات الأصغر يسهل تحليلها ، ولا يتعين على خوارزميات التعلم الآلي أن تجهد كثيرًا لاستخلاص رؤى قيمة.

التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف

يشبه التعلم الخاضع للإشراف وجود معلم يشرف على عملية التعلم بأكملها. هناك أيضًا مجموعة بيانات تدريبية معنونة تشبه وجود الإجابات الصحيحة لكل مشكلة تحاول حلها.

من الأسهل فهم ما إذا كانت إجابتك صحيحة أم لا ، وسوف يصحح المدرس أيضًا عندما ترتكب خطأ. في حالة التعلم غير الخاضع للإشراف ، لا يوجد مدرس أو إجابات صحيحة.

من منظور حسابي ، يعد التعلم غير الخاضع للإشراف أكثر تعقيدًا ويستغرق وقتًا طويلاً من التعلم الخاضع للإشراف. ومع ذلك ، من المفيد استخراج البيانات والحصول على رؤى حول بنية البيانات قبل تعيين أي مصنف (خوارزمية التعلم الآلي التي تصنف البيانات تلقائيًا).

على الرغم من كونه مفيدًا عندما تكون البيانات غير المسماة هائلة ، إلا أن التعلم غير الخاضع للإشراف قد يسبب القليل من الإزعاج لعلماء البيانات. نظرًا لأن مجموعة بيانات التحقق المستخدمة في التعلم الخاضع للإشراف مصنفة أيضًا ، فمن السهل على علماء البيانات قياس دقة النماذج. لكن الشيء نفسه لا ينطبق على نماذج التعلم غير الخاضعة للإشراف.

في كثير من الحالات ، يتم تطبيق التعلم غير الخاضع للإشراف قبل التعلم الخاضع للإشراف. هذا يساعد على تحديد الميزات وإنشاء الفصول الدراسية.

تتم عملية التعلم غير الخاضعة للإشراف عبر الإنترنت ، بينما يحدث التعلم الخاضع للإشراف في وضع عدم الاتصال. يتيح ذلك لخوارزميات UL معالجة البيانات في الوقت الفعلي.

بينما تنقسم مشكلات التعلم غير الخاضعة للإشراف إلى مشكلات ارتباط وتكتل ، يمكن تصنيف التعلم الخاضع للإشراف إلى مزيد من الانحدار والتصنيف.

بصرف النظر عن التعلم الخاضع للإشراف وغير الخاضع للإشراف ، هناك تعلم شبه خاضع للإشراف وتعلم معزز .

التعلم شبه الخاضع للإشراف هو مزيج من التعلم الخاضع للإشراف والتعلم غير الخاضع للإشراف. في تقنية التعلم الآلي هذه ، يتم تدريب النظام قليلاً فقط بحيث يحصل على نظرة عامة عالية المستوى. سيتم تسمية جزء من بيانات التدريب ، وسيتم إلغاء التسمية المتبقية.

في التعلم المعزز (RL) ، سيواجه نظام الذكاء الاصطناعي بيئة شبيهة باللعبة حيث يتعين عليه تعظيم المكافأة. يجب أن يتعلم النظام باتباع طريقة التجربة والخطأ وتحسين فرصته في الحصول على المكافأة مع كل خطوة.

فيما يلي نظرة سريعة على الاختلافات الرئيسية بين التعلم الخاضع للإشراف والتعلم غير الخاضع للإشراف.

تعليم غير مشرف عليه التعلم تحت الإشراف
إنها عملية معقدة وتتطلب المزيد من الموارد الحسابية وتستغرق وقتًا طويلاً. إنه بسيط نسبيًا ويتطلب موارد حسابية أقل.
مجموعة بيانات التدريب غير مسماة. تم تصنيف مجموعة بيانات التدريب.
أقل دقة ، لكن ليس بالضرورة درجة عالية من الدقة
تنقسم إلى اتحاد وتكتل تنقسم إلى انحدار وتصنيف
من الصعب قياس دقة النموذج إلى جانب عدم اليقين. من الأسهل قياس دقة النموذج.
عدد الفصول غير معروف. عدد الفصول معروف.
التعلم يحدث في الوقت الحقيقي. التعلم يحدث في وضع عدم الاتصال.
Apriori و ECLAT و k-mean clustering وخوارزمية نمو النمط المتكرر (FP) هي بعض الخوارزميات المستخدمة. يعد الانحدار الخطي والانحدار اللوجستي و Naive Bayes وآلة متجه الدعم (SVM) من بعض الخوارزميات المستخدمة.

أمثلة على التعلم الآلي غير الخاضع للإشراف

كما ذكرنا سابقًا ، يمكن أن يكون التعلم غير الخاضع للإشراف هدفًا في حد ذاته ويمكن استخدامه للعثور على أنماط مخفية في أحجام هائلة من البيانات - وهي مهمة غير واقعية للبشر.

بعض تطبيقات العالم الحقيقي للتعلم الآلي غير الخاضع للإشراف.

  • اكتشاف العيوب: إنها عملية العثور على نقاط بيانات غير نمطية في مجموعات البيانات ، وبالتالي فهي مفيدة لاكتشاف الأنشطة الاحتيالية.
  • رؤية الكمبيوتر: يُعرف أيضًا باسم   التعرف على الصور ، يعد هذا الإنجاز المتمثل في التعرف على الأشياء في الصور أمرًا ضروريًا للسيارات ذاتية القيادة وحتى بالنسبة لصناعة الرعاية الصحية لتجزئة الصور.
  • أنظمة التوصيات: من خلال تحليل البيانات التاريخية ، توصي خوارزميات التعلم غير الخاضعة للإشراف بالمنتجات التي من المرجح أن يشتريها العميل.
  • شخصية العميل: يمكن أن يساعد التعلم غير الخاضع للإشراف الشركات على بناء شخصيات دقيقة للعملاء من خلال تحليل البيانات المتعلقة بعادات الشراء.

ترك الخوارزميات لأجهزتهم الخاصة

تجعل القدرة على التعلم بمفرده التعلم غير الخاضع للإشراف أسرع طريقة لتحليل كميات هائلة من البيانات. بالطبع ، يعتمد الاختيار بين التعلم الخاضع للإشراف أو غير الخاضع للإشراف (أو حتى شبه الخاضع للإشراف) على المشكلة التي تحاول حلها والوقت واتساع البيانات المتاحة. ومع ذلك ، فإن التعلم غير الخاضع للإشراف يمكن أن يجعل مجهودك بأكمله أكثر قابلية للتطوير.

إن الذكاء الاصطناعي الذي لدينا اليوم غير قادر على الهيمنة على العالم ، ناهيك عن عصيان أوامر صانعيه. لكنها تحقق مآثر لا تصدق مثل السيارات ذاتية القيادة وروبوتات الدردشة الممكنة. يطلق عليه اسم AI الضيق ولكنه ليس ضعيفًا كما يبدو.