التعلم الخاضع للإشراف، المعروف أيضا باسم التعلم الآلي الخاضع للإشراف، هو فئة فرعية من التعلم الآلي والذكاء الاصطناعي. يتميز هذا النهج باستخدام مجموعات بيانات مُعنونة لتدريب الخوارزميات على تصنيف البيانات أو التنبؤ بالنتائج بدقة.
مع إدخال البيانات إلى النموذج، يقوم النموذج بتعديل أوزانه تدريجيًا حتى يتم تكييفه بالشكل الأمثل، وهي عملية تحدث ضمن إجراء التحقق المتقاطع. يساعد التعلم الخاضع للإشراف المنظمات على حل مجموعة كبيرة من المشكلات الواقعية على نطاق واسع، مثل تصنيف الرسائل غير المرغوب فيها في مجلد منفصل عن صندوق الوارد. كما يمكن استخدامه في بناء نماذج تعلم آلي عالية الدقة.
تعرَّف على المعوقات التي تَحُول دون اعتماد الذكاء الاصطناعي، لا سيما عدم تطبيق حوكمة الذكاء الاصطناعي، وعدم إيجاد حلول لإدارة المخاطر.
يستخدم التعلم الخاضع للإشراف مجموعة تدريب لتعليم النماذج للحصول على النتائج المطلوبة. تتضمن مجموعة البيانات هذه الإدخالات والمخرجات الصحيحة، مما يمكّن النموذج من التعلم بمرور الوقت. تقيس الخوارزمية دقتها من خلال دالة الفقد، ويتم ضبطها حتى يتم تقليل الخطأ إلى الحد الأدنى بشكل كافٍ.
يمكن تقسيم التعلم الخاضع للإشراف إلى نوعين من المشكلات عند استخراج البيانات، هما التصنيف والانحدار:
تُستخدم خوارزميات وتقنيات حسابية مختلفة في عمليات التعلّم الآلي الخاضع للإشراف. فيما يلي شروحات موجزة لبعض أساليب التعلّم الأكثر شيوعًا، والتي يتم تنفيذها عادةً باستخدام برامج مثل R أو Python:
كثيرا ما تتم مناقشة التعلم الآلي غير الخاضع للإشراف والتعلم الآلي الخاضع للإشراف معا. على عكس التعلم الخاضع للإشراف، يعتمد التعلم غير الخاضع للإشراف على بيانات غير معنونة، حيث يستخرج أنماطًا من البيانات تساعد في حل مشكلات التجميع أو الارتباط. يكون هذا النهج مفيدًا بشكل خاص عندما لا يكون الخبراء المتخصصون على دراية بالخصائص الشائعة داخل مجموعة البيانات. من خوارزميات التجميع الشائعة: التجميع الهرمي، وتجميع K-means، ونماذج الخليط الغاوسي (GMMs)..
يحدث التعلم شبه الخاضع للإشراف عندما يتم تصنيف جزء فقط من الإدخال المعطاة. يمكن أن يكون التعلم غير الخاضع للإشراف والتعلم شبه الخاضع للإشراف بديلين أكثر جاذبية، نظرًا لأن تصنيف البيانات يدويًا في التعلم الخاضع للإشراف قد يكون مكلفًا ويستهلك الكثير من الوقت بسبب الاعتماد على خبراء المجال لتحديد التصنيفات بدقة.
للاطلاع على تحليل معمق للفروق بين هذه الأساليب، يمكنك قراءة "التعلم الخاضع للإشراف مقابل التعلم غير الخاضع للإشراف: ما الفرق بينهما؟"
يمكن استخدام نماذج التعلم الخاضع للإشراف لبناء وتطوير عدد من تطبيقات الأعمال، من بينها:
على الرغم من أن التعلم الخاضع للإشراف يمكن أن يوفر مزايا للشركات، مثل الرؤى العميقة للبيانات وتحسين الأتمتة، إلا أن هناك بعض التحديات عند بناء نماذج تعلم خاضع للإشراف مستدامة. فيما يلي بعض هذه التحديات:
بناء ذكاء اصطناعي موثوق به وتوسيع نطاقه على أي تقنية سحابية. أتمتة دورة حياة الذكاء الاصطناعي لعمليات النماذج.
صِل البيانات المناسبة في الوقت المناسب بالأشخاص المناسبين في أي مكان.
هجينة. مفتوحة. مرنة. منصتك وشريكك في التحول الرقمي.
Granite هي سلسلة IBM الرائدة من نماذج LLM الأساسية التي تعتمد على بنية المحول المدعومة بآلية فك التشفير فقط. حيث يتم تدريب نماذج Granite اللغوية على بيانات المؤسسات الموثوقة التي تشمل الإنترنت والبيانات الأكاديمية والتعليمات البرمجية والبيانات القانونية والمالية.
تعلّم المفاهيم الأساسية للذكاء الاصطناعي والذكاء الاصطناعي التوليدي، بما في ذلك هندسة التلقين، والنماذج اللغوية الكبيرة، وأفضل المشروعات مفتوحة المصدر.
في هذه المقالة، سنستكشف أساسيات نهجين في علوم البيانات: التعلّم الخاضع للإشراف والعلّم غير الخاضع للإشراف.
استكشف بعض أساليب التعلم الخاضع للإشراف مثل مصنفات آلات المتجهات الداعمة والمصنفات الاحتمالية.