ما هو التعلم الخاضع للإشراف؟

28 ديسمبر 2024

المؤلفون

Ivan Belcic

Staff writer

Cole Stryker

Editorial Lead, AI Models

ما هو التعلم الخاضع للإشراف؟

التعلم الخاضع للإشراف هو أحد أساليب التعلم الآلي التي تستخدم مجموعة البيانات المدخلة والمخرجة المصنفة بواسطة الإنسان لتدريب نماذج الذكاء الاصطناعي. يتعلم النموذج المُدرَّب العلاقات الأساسية بين الإدخال والإخراج، مما يمكّنه من التنبؤ بالإخراج الصحيح بناءً على بيانات الإدخال الجديدة الحقيقية غير المصنّفة.

تتكون البيانات المصنّفة من أمثلة على نقاط البيانات جنباً إلى جنب مع المخرجات أو الإجابات الصحيحة. مع تغذية البيانات المدخلة في خوارزمية التعلم الآلي، يعدّل النموذج أوزانه حتى يتناسب بشكل ملائم. تعمل بيانات التدريب المصنّفة على تعليم النموذج بشكل صريح كيفية تحديد العلاقات بين السمات وتصنيفات البيانات.  

يساعد التعلم الآلي المؤسسات على حل العديد من المشاكل الواقعية على نطاق واسع، مثل تصنيف الرسائل غير المرغوب فيها أو الاحتيالية أو التنبؤ بأسعار الأسهم. يمكن استخدامه لبناء نماذج التعلم الآلي عالية الدقة. 

طريقة عمل التعلم الخاضع للإشراف

يستخدم التعلم الخاضع للإشراف مجموعة بيانات تدريبية مُصنّفة لفهم العلاقات بين بيانات الإدخال والإخراج. ينشئ علماء البيانات يدويًا مجموعات بيانات تحتوي على بيانات إدخال إلى جانب التصنيفات المقابلة. يدرب التعلم الخاضع للإشراف النموذج على تطبيق المخرجات الصحيحة على بيانات الإدخال الجديدة في حالات الاستخدام الحقيقية. 

أثناء التدريب، تعالج خوارزمية النموذج مجموعات البيانات الكبيرة لاستكشاف الارتباطات المحتملة بين الإدخالات والمخرجات. بعد ذلك، يتم تقييم أداء النموذج باستخدام بيانات الاختبار لمعرفة ما إذا كان قد تم تدريبه بنجاح. التحقق المتبادل هو عملية اختبار نموذج باستخدام جزء مختلف من مجموعة البيانات. 

تُعد عائلة خوارزميات الانحدار المتدرج ، بما في ذلك الانحدار المتدرج العشوائي (SGD)، من أكثر خوارزميات التحسين أو خوارزميات التعلم استخدامًا عند تدريب الشبكات العصبية ونماذج التعلم الآلي الأخرى. تقوم خوارزمية تحسين النموذج بتقييم الدقة من خلال دالة الخسارة: وهي معادلة تقيس التناقض بين توقعات النموذج والقيم الفعلية. 

منحدر دالة الخسارة، أو التدرج، هو المقياس الأساسي لأداء النموذج. تعمل خوارزمية التحسين على نزول التدرج لتقليل قيمته. طوال فترة التدريب، تقوم خوارزمية التحسين بتحديث معلمات النموذج - قواعد التشغيل أو "إعداداته" - لتحسين النموذج.

سير عمل التعلم الخاضع للإشراف

قد تبدو عملية التعلم الخاضع للإشراف النموذجية على النحو التالي: 

  1. تحديد نوع بيانات التدريب التي سيتم استخدامها لتدريب النموذج. يجب أن تكون هذه البيانات مشابهة لبيانات الإدخال المقصودة التي سيعالجها النموذج عندما يكون جاهزًا للاستخدام.
  2. تجميع بيانات التدريب وتصنيفها لإنشاء مجموعة بيانات التدريب المصنفة. يجب أن تكون بيانات التدريب خالية من تحيز البيانات لتجنب التحيز الخوارزمي الناتج وعيوب الأداء الأخرى. 
  3. إنشاء ثلاث مجموعات من البيانات: بيانات التدريب، وبيانات التحقق، وبيانات الاختبار. تقيّم عملية التحقق من الصحة عملية التدريب لمزيد من الضبط والتعديل، ويقيّم الاختبار النموذج النهائي. 
  4. اختيار خوارزمية التعلم الآلي التي تريد إنشاء النموذج بها. 
  5. إدخال مجموعة البيانات التدريبية إلى الخوارزمية المحددة. 
  6. التحقق من صحة النموذج واختباره وفقًا لذلك. 
  7. مراقبة أداء النموذج والمحافظة على الدقة من خلال التحديثات المنتظمة.
تصميم ثلاثي الأبعاد لكرات تتدحرج على مسار

أحدث الأخبار والرؤى حول الذكاء الاصطناعي 


تتوفر معارف وأخبار منسقة بمهارة حول الذكاء الاصطناعي والسحابة وغيرها في نشرة Think الإخبارية الأسبوعية. 

مثال عملي على التعلم الخاضع للإشراف

كمثال على التعلم الخاضع للإشراف، ضع في اعتبارك نموذج تصنيف الصور الذي تم إنشاؤه للتعرف على صور المركبات وتحديد نوع المركبة. يمكن لمثل هذا النموذج أن يدعم اختبارات CAPTCHA التي تستخدمها العديد من مواقع الويب للكشف عن الروبوتات الاحتيالية. 

لتدريب هذا النموذج، يقوم علماء البيانات بإعداد مجموعة بيانات تحتوي على أمثلة عديدة للمركبات إلى جانب نوع المركبة المقابل: سيارة، دراجة نارية، شاحنة، دراجة هوائية وغير ذلك. تحاول خوارزمية النموذج تحديد الأنماط الموجودة في بيانات التدريب التي تتسبب في حصول إدخال بعينه - صور المركبات - على نوع معين من المخرجات - نوع المركبة. 

يتم قياس تخمينات النموذج مقابل قيم البيانات الفعلية في مجموعة اختبار لتحديد ما إذا كان قد قام بتنبؤات دقيقة. إذا لم يكن الأمر كذلك، تستمر دورة التدريب حتى يصل أداء النموذج إلى مستوى مُرضٍ من الدقة. يشير مبدأ التعميم إلى قدرة النموذج على عمل تنبؤات مناسبة على البيانات الجديدة من نفس توزيع بيانات التدريب الخاصة به.

    أنواع التعلم الخاضع للإشراف

    يمكن تقسيم مهام التعلم الخاضع للإشراف على نطاق واسع إلى مشاكل التصنيف والانحدار: 

    • يستخدم التصنيف في التعلم الآلي خوارزمية لفرز البيانات إلى فئات. ويتعرف على كيانات محددة ضمن مجموعة البيانات ويحاول تحديد كيفية تصنيف تلك الكيانات أو تعريفها. خوارزميات التصنيف الشائعة هي المصنفات الخطية، وآلات المتجهات الداعمة (SVM)، وأشجار القرار، وﺍﻟجار الأقرب، والغابة العشوائية.

      تتفوق الشبكات العصبية في معالجة مشاكل التصنيف المعقدة. الشبكة العصبية هي بنية التعلم العميق التي تعالج بيانات التدريب بطبقات من العقد التي تحاكي الدماغ البشري. تتكون كل عقدة من الإدخالات وعوامل الترجيح والتحيز (أو الحد) والمخرجات. إذا تجاوزت قيمة الإخراج قيمة محددة مسبقًا، فإن العقدة "تطلق" أو تقوم بالتنشيط، وتمرر البيانات إلى الطبقة التالية في الشبكة. 

    • يُستخدم الانحدار لفهم العلاقة بين المتغيرات التابعة والمستقلة. في مشاكل الانحدار، تكون المخرجات قيمة مستمرة، وتحاول النماذج التنبؤ بالمخرجات المستهدفة. تتضمن مهام الانحدار توقعات إيرادات المبيعات أو التخطيط المالي. يُعد الانحدار الخطي، والانحدار اللوجستي والانحدار متعدد الحدود ثلاثة أمثلة على خوارزميات الانحدار.

      نظرًا لأن مجموعات البيانات الكبيرة تحتوي عادةً على العديد من السمات، يمكن لعلماء البيانات تبسيط هذا التعقيد من خلال تقليل الأبعاد. تعمل تقنية علم البيانات هذه على تقليل عدد السمات إلى تلك الأكثر أهمية للتنبؤ بتصنيفات البيانات، مما يحافظ على الدقة مع زيادة الكفاءة.

    خوارزميات التعلم الخاضع للإشراف

    تعمل خوارزميات التحسين مثل الانحدار التدرجي على تدريب مجموعة واسعة من خوارزميات التعلم الآلي التي تتفوق في مهام التعلم الخاضع للإشراف. 

    • بايز الساذج: بايز الساذج هي خوارزمية تصنيف تعتمد مبدأ الاستقلال الشرطي للفئة من نظرية بايز. وهذا يعني أن وجود سمة واحدة لا يؤثر على وجود سمة أخرى في احتمالية نتيجة معينة، ويكون لكل متنبئ تأثير متساوٍ على تلك النتائج.

      تتضمن مصنفات بايز الساذج مصنفات بايز الساذج متعدد الحدود، وبرنولي وغاوسي. تستخدم هذه التقنية غالبًا في تصنيف النصوص وتحديد البريد العشوائي وأنظمة التوصية.

    • الانحدار الخطي: يُستخدم الانحدار الخطي لتحديد العلاقة بين متغير تابع مستمر ومتغير مستقل واحد أو أكثر. يتم استخدامه عادة لعمل تنبؤات حول النتائج المستقبلية.

      يعبر الانحدار الخطي عن العلاقة بين المتغيرات كخط مستقيم. عندما يكون هناك متغير مستقل واحد ومتغير تابع واحد، يُعرف بالانحدار الخطي البسيط. ومع زيادة عدد المتغيرات المستقلة، يشار إلى التقنية باسم الانحدار الخطي المتعدد. 

    • الانحدار غير الخطي: في بعض الأحيان، لا يمكن إعادة إنتاج الناتج من الإدخال الخطي. في هذه الحالات، يجب أن يتم نمذجة المخرجات باستخدام دالة غير خطية. يعبر الانحدار غير الخطي عن علاقة بين المتغيرات من خلال خط غير خطي، أو منحني. يمكن أن تتعامل النماذج غير الخطية مع العلاقات المعقدة مع العديد من المعلمات. 

    • الانحدار اللوجستي: يتعامل الانحدار اللوجستي مع المتغيرات التابعة التصنيفية - عندما يكون لها مخرجات ثنائية، مثل صحيح أو خطأ أو موجب أو سالب. في حين أن كلا نموذجي الانحدار الخطي واللوجستي يسعيان إلى فهم العلاقات بين إدخالات البيانات، فإن الانحدار اللوجستي يحل بشكل أساسي مشكلات التصنيف الثنائي، مثل تحديد البريد الإلكتروني العشوائي. 

    • الانحدار متعدد الحدود: على غرار نماذج الانحدار الأخرى، يمثل الانحدار متعدد الحدود العلاقة بين المتغيرات على الرسم البياني. تعبر الدالات المستخدمة في الانحدار متعدد الحدود عن هذه العلاقة من خلال درجة أُسية. الانحدار المتعدد الحدود هو مجموعة فرعية من الانحدار غير الخطي. 

    • آلة المتجهات الداعمة (SVM): يتم استخدام آلة المتجهات الداعمة لكل من تصنيف البيانات والانحدار. ومع ذلك ، فإنها عادةً ما تتعامل مع مشكلات التصنيف. هنا، تفصل آلة المتجهات الداعمة (SVM) فئات نقاط البيانات بحدود القرار أو مستوى فائق. الهدف من خوارزمية آلة المتجهات الداعمة (SVM) هو رسم المستوى الفائق الذي يزيد المسافة بين مجموعات نقاط البيانات. 

    • الجار الأقرب K: الجار الأقرب K (KNN) هي خوارزمية غير معيارية تصنف نقاط البيانات بناء على قربها وارتباطها بالبيانات الأخرى المتاحة. تفترض هذه الخوارزمية أنه يمكن العثور على نقاط بيانات متشابهة بالقرب من بعضها البعض عند رسمها رياضياً.

      إن سهولة استخدامه ووقت الحساب المنخفض يجعله فعالاً عند استخدامه لمحركات التوصية والتعرف على الصور. إلا أنه مع زيادة حجم مجموعة بيانات الاختبار، يزداد وقت المعالجة، مما يجعله أقل جاذبية لمهام التصنيف الكبيرة. 

    • الغابة العشوائية (Random Forest): تُعد الغابة العشوائية خوارزمية مرنة من خوارزميات التعلم الآلي الخاضع للإشراف، وتُستخدم في كلٍ من مهام التصنيف والانحدار. يشير مصطلح "الغابة" إلى مجموعة من أشجار القرار غير المرتبطة ببعضها التي يتم دمجها معًا لتقليل التباين وزيادة الدقة.

    Mixture of Experts | 25 أبريل، الحلقة 52

    فك تشفير الذكاء الاصطناعي: تقرير إخباري أسبوعي

    انضم إلى لجنة عالمية المستوى من المهندسين والباحثين وقادة المنتجات وغيرهم في أثناء سعيهم للتغلب على الفوضى والضوضاء المحيطة بالذكاء الاصطناعي لتزويدك بأحدث أخباره والرؤى المتعلقة به.

    التعلم الخاضع للإشراف مقابل أساليب التعلم الأخرى

    لا يُعد التعلم الخاضع للإشراف أسلوب التعلم الوحيد لتدريب نماذج التعلم الآلي. تشمل الأنواع الأخرى من التعلم الآلي ما يلي: 

    • تعليم دون إشراف

    • التعلم شبه الخاضع للإشراف 

    • التعلم الخاضع للإشراف الذاتي 

    • تعزيز التعلم

      التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف

      الفرق بين التعلم الخاضع للإشراف والتعلم غير الخاضع للإشراف هو أن التعلم الآلي غير الخاضع للإشراف يستخدم بيانات غير مصنفة. يُترك النموذج لاكتشاف الأنماط والعلاقات في البيانات من تلقاء نفسه. يتم تدريب العديد من نماذج الذكاء الاصطناعي التوليدي في البداية باستخدام التعلم غير الخاضع للإشراف ثم بعد ذلك باستخدام التعلم الخاضع للإشراف لزيادة الخبرة في المجال. 

      يمكن أن يساعد التعلم غير الخاضع للإشراف في حل مشاكل التجميع أو الارتباط التي تكون فيها الخصائص المشتركة داخل مجموعة البيانات غير مؤكدة. من خوارزميات التجميع الشائعة: التجميع الهرمي، وتجميع K-means، ونماذج الخليط الغاوسي (GMMs).

        التعلم الخاضع للإشراف مقابل التعلم شبه الخاضع للإشراف

        يقوم التعلم شبه الخاضع للإشراف بتصنيف جزء من بيانات الإدخال. نظرًا لأن الاعتماد على الخبرة في المجال لتصنيف البيانات بشكل مناسب للتعلم الخاضع للإشراف قد يستغرق وقتًا طويلاً ومكلفًا، فإن التعلم شبه الخاضع للإشراف يمكن أن يكون بديلاً جذابًا.

          التعلم الخاضع للإشراف مقابل التعلم الخاضع للإشراف الذاتي

          يحاكي التعلم الخاضع للإشراف الذاتي (SSL) التعلم الخاضع للإشراف ببيانات غير مصنفة. بدلاً من استخدام التصنيفات التي تم إنشاؤها يدويًا لمجموعة البيانات، يتم تكوين مهام التعلم الخاضع للإشراف الذاتي بحيث يمكن للنموذج إنشاء تصنيفات ضمنية من بيانات غير منظمة. بعد ذلك، تستخدم دالة الخسارة الخاصة بالنموذج تلك التصنيفات بدلاً من التصنيفات الفعلية لتقييم أداء النموذج. 

          يشهد التعلم الخاضع للإشراف الذاتي استخدامًا واسع النطاق في مهام رؤية الكمبيوتر ومعالجة اللغة الطبيعية (NLP) التي تتطلب مجموعات بيانات كبيرة باهظة الثمن وتستغرق وقتًا طويلاً في التصنيف.

          التعلم الخاضع للإشراف مقابل التعلّم المعزّز

          يدرب التعلّم المعزّز الوكلاء المستقلين، مثل الروبوتات والسيارات ذاتية القيادة، على اتخاذ القرارات من خلال التفاعلات البيئية. لا يستخدم التعلّم المعزز بيانات مصنفة، ويختلف أيضًا عن التعلّم غير الخاضع للإشراف في أنه يتعلّم عن طريق التجربة والخطأ والمكافأة، وليس عن طريق تحديد الأنماط الأساسية ضمن مجموعات البيانات.

          حالات استخدام التعلم الخاضع للإشراف في الواقع

          يمكن لنماذج التعلم الخاضعة للإشراف بناء تطبيقات الأعمال وتطويرها، بما في ذلك: 

          • التعرّف على الصور والأجسام: يمكن استخدام خوارزميات التعلّم الخاضع للإشراف لتحديد وعزل وتصنيف الأجسام من مقاطع الفيديو أو الصور، مما يجعلها مفيدة مع تقنيات رؤية الكمبيوتر ومهام تحليل الصور. 

          • التحليلات التنبؤية:تنشئ نماذج التعلم الخاضع للإشراف أنظمة تحليلات تنبؤية لتوفير رؤى.  يسمح ذلك للمؤسسات بتوقع النتائج بناءً على متغير المخرجات واتخاذ قرارات قائمة على البيانات، مما يساعد بدوره قادة الأعمال على تبرير خياراتهم أو تعديل الاستراتيجيات بما يخدم مصلحة المؤسسة.

            يتيح الانحدار أيضًا لمقدمي الرعاية الصحية التنبؤ بالنتائج بناءً على معايير المريض والبيانات التاريخية. قد يقيم النموذج التنبؤي خطر إصابة المريض بمرض أو حالة مرضية معينة بناء على بياناته البيولوجية ونمط الحياة الخاص به. 

          • تحليل مشاعر العملاء: يمكن للمؤسسات استخراج أجزاء مهمة من المعلومات وتصنيفها من كميات كبيرة من البيانات - بما في ذلك السياق والعاطفة والنية - بأقل تدخل بشري ممكن. يتيح تحليل المشاعر فهمًا أفضل لتفاعلات العملاء ويمكن استخدامه لتحسين جهود التفاعل مع العلامة التجارية. 

          • تقسيم العملاء: يمكن لنماذج الانحدار التنبؤ بسلوك العملاء بناءً على السمات المختلفة والاتجاهات التاريخية. يمكن للشركات استخدام النماذج التنبؤية لتقسيم قاعدة عملائها وإنشاء شخصيات المشترين لتحسين جهود التسويق وتطوير المنتجات. 

          • الكشف عن الرسائل غير المرغوب فيها: يعد الكشف عن الرسائل غير المرغوب فيها مثالاً آخر على نموذج التعلم الخاضع للإشراف. فمن خلال استخدام خوارزميات التصنيف الخاضع للإشراف، يمكن للمؤسسات تدريب قواعد البيانات على التعرف على الأنماط أو الحالات الشاذة في البيانات الجديدة، مما يساعد على تصنيف الرسائل بفعالية إلى بريد عادي أو غير مرغوب فيه. 

          • التنبؤ: تتميز النماذج الانحدارية بقدرتها على التنبؤ استنادًا إلى الاتجاهات التاريخية، مما يجعلها مناسبة للاستخدام في المجالات المالية. يمكن للمؤسسات أيضًا استخدام الانحدار للتنبؤ باحتياجات المخزون وتقدير رواتب الموظفين وتجنب العوائق المحتملة في سلسلة التوريد. 

          • محركات التوصية: من خلال تفعيل نماذج التعلم الخاضع للإشراف، يمكن لموفري المحتوى والأسواق عبر الإنترنت تحليل خيارات العملاء وتفضيلاتهم ومشترياتهم وإنشاء محركات توصية تقدم توصيات مخصصة من المرجح أن تؤدي إلى التحويل.

            التحديات التي تواجه التعلم الخاضع للإشراف

            على الرغم من أن التعلم الخاضع للإشراف يمكن أن يوفر للشركات مزايا مثل الرؤى العميقة للبيانات وتحسين الأتمتة، إلا أنه قد لا يكون الخيار الأفضل لجميع الحالات. 

            • قيود الموظفين: يمكن أن تتطلب نماذج التعلم الخاضع للإشراف مستويات معينة من الخبرة لتنظيمها بدقة. 

            • المشاركة البشرية: نماذج التعلم الخاضع للإشراف غير قادرة على التعلم الذاتي. يجب على علماء البيانات التحقق من صحة مخرجات أداء النماذج. 

            • متطلبات الوقت: مجموعات بيانات التدريب كبيرة ويجب تصنيفها يدويًا، مما يجعل عملية التعلم الخاضع للإشراف تستغرق وقتًا طويلاً. 

            • عدم المرونة: تعاني نماذج التعلّم الخاضع للإشراف في تصنيف البيانات خارج حدود مجموعات بيانات التدريب الخاصة بها. قد يكون نموذج التعلم غير الخاضع للإشراف أكثر قدرة على التعامل مع البيانات الجديدة. 

            • التحيز: تتعرض مجموعات البيانات لزيادة احتمالية الخطأ البشري والتحيز، مما يؤدي إلى تعلم الخوارزميات بشكل غير صحيح. 

            • الملاءمة المفرطة: يمكن أن يؤدي التعلم الخاضع للإشراف في بعض الأحيان إلى الملاءمة المفرطة: حيث يصبح النموذج مخصصًا بشكل وثيق للغاية لمجموعة بيانات التدريب التي اعتمد عليها. يمكن أن تشير الدقة العالية في التدريب إلى الملاءمة المفرطة بدلاً من الأداء القوي بشكل عام. يتطلب تجنب الملاءمة المفرطة اختبار النماذج ببيانات مختلفة عن بيانات التدريب.

            حلول ذات صلة
            IBM watsonx.ai

            تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.

            اكتشف watsonx.ai
            حلول الذكاء الاصطناعي

            استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.

            استكشف حلول الذكاء الاصطناعي
            الاستشارات والخدمات المتعلقة بالذكاء الاصطناعي

            أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.

            استكشف خدمات الذكاء الاصطناعي
            اتخِذ الخطوة التالية

            احصل على وصول شامل إلى القدرات التي تغطي دورة حياة تطوير الذكاء الاصطناعي. تمكَّن من إنتاج حلول ذكاء اصطناعي قوية بفضل الواجهات سهلة الاستخدام وعمليات سير العمل السلسة وإمكانية الوصول إلى واجهات برمجة التطبيقات ومجموعات تطوير البرامج القياسية في الصناعة.

            استكشف watsonx.ai احجز عرضًا توضيحيًا مباشرًا