ما هو تدريب النموذج؟

ما المقصود بتدريب النموذج؟

تدريب النموذج هو عملية "تعليم" نموذج التعلم الآلي لتحسين الأداء على مجموعة بيانات تدريبية من مهام نموذجية ذات صلة بحالات الاستخدام النهائية للنموذج. إذا كانت بيانات التدريب تشبه إلى حد كبير مشاكل العالم الحقيقي التي سيُكلف بها النموذج، فإن تعلم أنماطها وارتباطاتها سيمكّن النموذج المدرب من إجراء تنبؤات دقيقة على البيانات الجديدة .

تعد عملية التدريب الخطوة الأكثر حساسية في دورة حياة نماذج الذكاء الاصطناعي، من أنظمة التوقعات المبنية على خوارزميات الانحدار الخطي الأساسية إلى الشبكات العصبية المعقدة التي تشغل الذكاء الاصطناعي التوليدي.

تدريب النموذج هو خطوة في التعلم الآلي حيث يحدث "التعلم". في التعلم الآلي، يتضمن التعلم ضبط معلمات نموذج التعلم الآلي. تتضمن هذه المعلمات الأوزان والتحيزات في الدوال الرياضية التي تشكل خوارزمياتها. الهدف من هذا التعديل هو إنتاج مخرجات أكثر دقة. إن القيم المحددة لهذه الأوزان والتحيزات، والتي هي النتيجة النهائية لتدريب النموذج، هي النتائج ملموسة من مظاهر "معرفة" النموذج.

من الناحية الرياضية، الهدف من هذا التعلم هو تقليل دالة الخسارة التي تقيس خطأ مخرجات النموذج في طلبات التدريب. عندما يقع ناتج دالة الخسارة تحت عتبة محددة مسبقًا—مما يعني أن خطأ النموذج في مهام التدريب صغير بما فيه الكفاية—يعتبر النموذج "مدربًا". في التعلم المعزز، يتم عكس الهدف: فبدلاً من تقليل دالة الخسارة، يتم تحسين معلمات النموذج لتعظيم دالة المكافأة.

من الناحية العملية، يتضمن تدريب النموذج دورة من جمع وتنظيم البيانات، وتشغيل النموذج على بيانات التدريب تلك، وقياس الخسارة، وتحسين المعلمات بناءً على ذلك، واختبار أداء النموذج على مجموعات بيانات التحقق. يستمر سير العمل هذا بشكل متكرر حتى يتم تحقيق نتائج مرضية. قد يتطلب التدريب الكافي أيضًا ضبط المعلمات الفائقة—الاختيارات الهيكلية التي تؤثر على عملية التعلم ولكنها ليست "قابلة للتعلم" في حد ذاتها—في عملية تسمى ضبط المعلمات الفائقة.

في بعض الأحيان، يمكن ضبط النموذج الذي تم تدريبه بالفعل لأداء مهام أو مجالات أكثر تحديدًا من خلال التعلم الإضافي على بيانات التدريب الجديدة. على الرغم من أن كلًا من التدريب الأصلي من الصفر والضبط الدقيق اللاحق هما "تدريب" ، إلا أن الأول يسمى عادة "التدريب المسبق" في هذا السياق (من أجل توضيح الغموض). الضبط الدقيق هو أحد أنواع التعلم الانتقالي، وهو مصطلح شامل لتقنيات التعلم الآلي التي تعمل على تكييف النماذج المدربة مسبقًا لاستخدامات جديدة.

أحدث اتجاهات الذكاء الاصطناعي، يقدمها لك الخبراء

احصل على رؤى منسقة حول أهم أخبار الذكاء الاصطناعي وأكثرها إثارةً للاهتمام. اشترِك في خدمة رسائل Think الإخبارية الأسبوعية. راجع بيان الخصوصية لشركة IBM.

شكرًا لك! لقد اشتركت بنجاح.

سيتم تسليم اشتراكك باللغة الإنجليزية. ستجد رابط إلغاء الاشتراك في كل رسالة إخبارية. يمكنك إدارة اشتراكاتك أو إلغاء اشتراكك هنا. راجع بيان خصوصية IBM لمزيد من المعلومات.

النماذج مقابل الخوارزميات

على الرغم من أن الكلمتين "نموذج" و "خوارزمية" غالبًا ما تستخدمان بالتبادل في مجال الذكاء الاصطناعي، إلا أنهما ليسا نفس الشيء. يكمن التمييز بشكل أساسي في علاقة كل مصطلح بتدريب النموذج.

  • الخوارزميات هي إجراءات، يتم وصفها عادةً بلغة رياضية أو شفرة زائفة، تُستخدم لإخراج التنبؤات أو اتخاذ القرارات بناءً على الإدخال المقدَّم.

  • النماذج هي نتاج عملية تحسين معلمات خوارزمية ما لتحسين أدائها على مجموعة بيانات تدريبية محددة—ثم على بيانات جديدة تشبه تلك الأمثلة التدريبية. ومن منظور علم البيانات، تُسمى هذه العملية "ملاءمة" خوارزمية في مجموعة البيانات.

وبعبارة أخرى، يُستخدم نموذج الذكاء الاصطناعي لاتخاذ تنبؤات أو قرارات، والخوارزمية هي المنطق الرياضي الذي يعمل به هذا النموذج. قد يستخدم نموذجان نفس الخوارزمية الأساسية ولكن لهما قيم مختلفة للأوزان والتحيزات داخل تلك الخوارزمية لأنهما تم تدريبهما على بيانات مختلفة.

التعلم العميق هو مجموعة فرعية من التعلم الآلي التي تكون نماذجها عبارة عن شبكات عصبية ذات طبقات متعددة — ومن ثَمَّ "العمق" —لأنها ليست خوارزميات مصممة بشكل صريح مثل الانحدار اللوجستي أو Naïve Bayes. قد يكون لنموذجين للتعلم العميق نفس البنية، مثل المشفر التلقائي القياسي، ولكن يختلفان في عدد الطبقات، أو عدد الخلايا العصبية لكل طبقة، أو وظائف التنشيط لكل خلية عصبية.

Mixture of Experts | 12 ديسمبر، الحلقة 85

فك تشفير الذكاء الاصطناعي: تقرير إخباري أسبوعي

انضمّ إلى نخبة من المهندسين والباحثين وقادة المنتجات وغيرهم من الخبراء وهم يقدّمون أحدث الأخبار والرؤى حول الذكاء الاصطناعي، بعيدًا عن الضجيج الإعلامي.

أنواع تدريب النماذج

في معظم السياقات، التدريب مرادف للتعلم تقريبًا: عالم البيانات يُدرِّب؛ النموذج يتعلّم. يستلزم التعلّم تعديل معلمات خوارزمية التعلّم الآلي حتى تتوافق مخرجات النموذج الناتج مع بعض مقاييس الدقة أو الفائدة. يتضمن التدريب جمع بيانات التدريب وضبط المعلمات الفائقة—مثل اختيار دالة الخسارة أو تحديد معدل تحديث المعلمات أو تغيير بنية الشبكة العصبية —لتسهيل هذا التعلم.

يتم تصنيف نماذج الذكاء الاصطناعي عادةً على أنها تنتمي إلى أحد نماذج التعلم الآلي الثلاثة المتميزة: التعلم الخاضع للإشراف، أو التعلم غير الخاضع للإشراف، أو التعلم المعزز. لكل نوع من أنواع التعلُّم الآلي حالات استخدام فريدة من نوعها، ومعلمات فائقة وخوارزميات وعمليات تدريب خاصة به.

  • يُستخدم التعلم الخاضع للإشراف عندما يتم تدريب النموذج على التنبؤ بالمخرجات "الصحيحة" لإدخال. وهذا ينطبق على المهام التي تتطلب درجة معينة من الدقة مقارنة ببعض "الحقائق الأساسية"، الخارجية مثل التصنيف أو الانحدار.

  • يُستخدم التعلّم غير الخاضع للإشراف عندما يتم تدريب النموذج على تمييز الأنماط والارتباطات الجوهرية في البيانات. على عكس التعلم الخاضع للإشراف، لا يفترض التعلم غير الخاضع للإشراف وجود أي حقيقة أساسية خارجية يجب مقارنة مخرجاته بها.

  • يُستخدم التعلّم المعزز عندما يتم تدريب النموذج على تقييم بيئته واتخاذ الإجراء الذي سيحقق أكبر قدر من المكافأة.

تجدر الإشارة إلى أن تعريفات كل نموذج من نماذج التعلم الآلي والتمييز بينها ليست دائماً رسمية أو مطلقة. على سبيل المثال، يمكن تصنيف التعلم الخاضع للإشراف الذاتي (SSL) على أنه تعلم خاضع للإشراف أو غير خاضع للإشراف، اعتمادًا على أي جانب من جوانب تعريفات هذه المصطلحات يركز عليه. يجمع التعلم شبه الخاضع للإشراف بين التعلم غير الخاضع للإشراف والخاضع للإشراف.

ومن الجدير بالذكر أيضًا أنه يمكن أحياناً استخدام أنواع متعددة من التعلم الآلي لتدريب نظام ذكاء اصطناعي واحد. على سبيل المثال، عادةً ما تخضع إصدارات النماذج اللغوية الكبيرة (LLMs) المستخدمة لتطبيقات مثل روبوتات المحادثة لتدريب مسبق خاضع للإشراف الذاتي، يتبعه ضبط دقيق خاضع للإشراف، وبعد ذلك تعلم معزز من خلال التعليقات البشرية (RLHF).

التعلم الخاضع للإشراف

وباعتباره الشكل المهيمن لتدريب الشبكات العصبية التي تتألف منها نماذج التعلم العميق، فإن التعلم الخاضع للإشراف هو الشكل السائد لتدريب الشبكات العصبية التي تضم نماذج التعلم العميق، وهو ما يدعم معظم نماذج الذكاء الاصطناعي الحديثة اليوم. التعلم الخاضع للإشراف هو نموذج التدريب الأساسي للمهام التي تتطلب الدقة، مثل التصنيف أو الانحدار. 

تدريب نموذج لتحقيق الدقة يتطلب مقارنة تنبؤات مخرجاته لمدخل محدد مع التنبؤات "الصحيحة" لهذا المدخل—والتي تسمى عادةً الحقيقة الأساسية. في التعلم التقليدي الخاضع للإشراف، يتم توفير هذه الحقيقة الأساسية من خلال أزواج البيانات المصنفة. على سبيل المثال، تقوم بيانات التدريب الخاصة بنماذج كشف الكائنات بربط الصور الخام (الإدخال) بإصدارات موضحة من الصور تشير إلى موقع وتصنيف كل كائن داخلها (الإخراج).

نظرا لأن طريقة التدريب هذه تتطلب إنسانًا في العملية لتقديم هذه الحقيقة الأساسية، فإنها تسمى التعلم "الخاضع للإشراف". لكن السمة الحاسمة للتعلم الخاضع للإشراف ليست تدخل البشر، بل استخدام بعض الحقائق الأساسية وتقليل دالة الخسارة التي تقيس الانحراف عنها. أصبحت هذه التفرقة مهمة حيث ابتكرت تقنيات تعلم جديدة مبتكرة طرقًا لاستنتاج "التسميات الزائفة" ضمنيًا من البيانات غير المصنفة.

لتلائم مفهومًا أكثر تنوعًا للتعلم الخاضع للإشراف، يستخدم مصطلح التعلم الآلي الحديث "الإشراف" أو "إشارات الإشراف" للإشارة إلى أي مصدر للحقيقة الأساسية. في التعلم الخاضع للإشراف الذاتي، والذي يعتبر "غير خاضع للإشراف" اسميًا لأنه يستخدم بيانات غير مصنفة، يتم استخلاص إشارات الإشراف من بنية البيانات غير المصنفة نفسها. على سبيل المثال، يتم تدريب النماذج اللغوية الكبيرة مسبقًا من خلال طبقة المقابس الآمنة من خلال التنبؤ بالكلمات المقنعة في عينات النصوص، حيث يعمل النص الأصلي كحقيقة أساسية.

التعلم غير الخاضع للإشراف

على عكس التعلم الخاضع للإشراف، لا يفترض التعلم غير الخاضع للإشراف وجود الإجابات "الصحيحة"، وبالتالي لا يتضمن إشارات إشرافية أو دوال خسارة تقليدية. تسعى خوارزميات التعلم غير الخاضع للإشراف إلى اكتشاف الأنماط الجوهرية في البيانات غير المسماة، مثل أوجه التشابه أو الارتباطات أو التجمعات المحتملة، وهي أكثر فائدة عندما لا تكون هذه الأنماط واضحة بالضرورة للمراقبين البشريين.

تتضمن الفئات البارزة من خوارزميات التعلم غير الخاضع للإشراف ما يلي:

  • تقوم خوارزميات التجميع بتقسيم نقاط البيانات غير المُسمّاة إلى "مجموعات" أو تجمعات بناءً على قربها أو تشابهها مع بعضها البعض. على سبيل المثال، يتم استخدام التجميع بالمتوسطات، وهي خوارزمية تجميع شائعة، في تجزئة السوق لتجميع العملاء ذوي السمات المتشابهة معًا في k المجموعات.

  • تعمل خوارزميات الارتباط على اكتشاف العلاقات بين البيانات، مثل العلاقة بين إجراء معين وشروط محددة. على سبيل المثال، تَستخدِم شركات التجارة الإلكترونية مثل Amazon نماذج ارتباط غير خاضعة للإشراف لتشغيل محركات التوصيات.

  • تم تصميم خوارزميات تقليل الأبعاد لتقليل تعقيد البيانات من خلال تمثيلها بعدد أقل من السمات—أي تمثيلها بأبعاد أقل—مع الحفاظ على خصائصها ذات المغزى. لديها العديد من حالات الاستخدام، بما في ذلك ضغط البيانات والعرض المصور للبيانات وهندسة الميزات.

كما يوحي اسمها، يمكن فهم خوارزميات التعلم غير الخاضع للإشراف على نطاق واسع على أنها "تحسّن نفسها بنفسها" إلى حد ما. على سبيل المثال، هذا الرسم المتحرك من الأستاذ Andrey Shabalin، دكتوراه، من جامعة يوتاه، يوضح كيف تقوم خوارزمية التجميع بالمتوسطات بتحسين مركز كل مجموعة بشكل متكرر.

على هذا النحو، عادة ما يكون تدريب نماذج الذكاء الاصطناعي التي تستخدم خوارزميات التعلم غير الخاضع للإشراف مسألة ضبط المعلمات الفائقة. على سبيل المثال، في خوارزمية التجميع، العدد المثالي للمجموعات (k) ليس واضحًا دائمًا وقد يتطلب إجراء تجارب يدوية لتحقيق أفضل النتائج.

التعلم المعزز

بينما يقوم التعلم الخاضع للإشراف بتدريب النماذج من خلال تحسينها لتطابق الأمثلة المثالية، وتقوم خوارزميات التعلم غير الخاضع للإشراف بتكييف نفسها مع مجموعة البيانات، يتم تدريب نماذج التعلم المعزز بشكل شامل من خلال التجربة والخطأ. مشاكل التعزيز لا تتضمن إجابة "صحيحة" واحدة؛ بل تتضمن قرارات "جيدة" وقرارات "سيئة" (أو ربما محايدة).

بدلًا من أزواج بيانات الإدخال والإخراج المستقلة المستخدمة في التعلم الخاضع للإشراف، يعمل التعلم المعزز (RL) على مجموعات بيانات الحالة-الفعل-المكافأة المترابطة. يعتمد الإطار الرياضي للتعلم المعزز بشكل أساسي على هذه العناصر:

  • يحتوي فضاء الحالة على جميع المعلومات المتاحة المتعلقة بالقرارات التي قد يتخذها النموذج. وعادةً ما تتغير مع كل إجراء يتخذه النموذج.

  • يحتوي مساحة الإجراءات على جميع القرارات التي يُسمح للنموذج باتخاذها في لحظة معينة. في لعبة الطاولة، تشتمل مساحة الإجراءات على جميع الحركات القانونية المتاحة في ذلك الوقت. في توليد النصوص، تتكون مساحة الإجراءات من "المفردات" الكاملة للرموز المميزة المتاحة لنموذج لغوي كبير.

  • تُحدِّد دالة المكافأة التعليقات الإيجابية (أو السلبية) التي يجب تقديمها للنموذج كنتيجة لكل إجراء في إشارة مكافأة: وهي عبارة عن تقدير كمي قياسي لتلك التعليقات. على سبيل المثال، عند تدريب برنامج شطرنج باستخدام التعلم المعزز، قد تحفِّز دالة المكافأة الحركات التي تزيد من احتمالية الفوز وتثبِّط الحركات التي تقلل من احتمالية الفوز. عند تدريب سيارة ذاتية القيادة، قد تؤدي دالة المكافأة إلى تثبيط المناورات التي تنتهك القوانين أو تقلل من احتمالية السلامة.

  • السياسة هي "عملية التفكير" التي تقود سلوك وكيل التعلم المعزز. من الناحية الرياضية ، السياسة (π) هي دالة تأخذ حالة (s) كإدخال وترجع إجراء (a):  π(s)a.

الهدف من خوارزمية التعلم المعزز هو تحسين السياسة لتحقيق أقصى قدر من المكافأة. في التعلم المعزز العميق، يتم تمثيل السياسة كشبكة عصبية يتم تحديث معلماتها باستمرار لتحقيق أقصى قدر من دالة المكافأة (بدلاً من تقليل دالة الخسارة).

كيفية تدريب نموذج التعلم الآلي

تتضمن دورة حياة تطوير النموذج عدة عمليات، بعضها يتكرر بشكل دوري بطريقة تكرارية حتى يتم تحقيق نتائج مرضية.

على الرغم من أن لكل من التعلم المعزز والتعلم الخاضع للإشراف والتعلم غير الخاضع للإشراف عناصر تدريب تنفرد كل منها بنموذجها، إلا أن سير العمل العام المطلوب لتدريب نموذج ما يتكون من هذه الخطوات:

  • اختيار النموذج

  • جمع البيانات

  • إعداد البيانات

  • اختيار المَعلمات الفائقة

  • الأداء على بيانات التدريب

  • حساب الخسارة (أو المكافأة)

  • تحسين المَعلمات 

  • تقييم النموذج

اختيار النموذج

لا يعتمد اختيار الخوارزمية المناسبة (أو بنية الشبكة العصبية) فقط على المشكلة التي تحتاج إلى حلها وأنواع البيانات التي سيعمل عليها النموذج. يعتمد نوع النموذج المثالي أيضًا على ما إذا كنت تعطي الأولوية للسرعة والكفاءة على الدقة والأداء (أو العكس)، وعلى الميزانية وموارد الأجهزة أو الحوسبة المتاحة لك. على سبيل المثال، غالبًا ما يتطلب تدريب أو ضبط نموذج لغوي كبير وحدات معالجة رسومات (GPUs) متعددة.

جمع البيانات

إن الحصول على بيانات تدريب عالية الجودة لحالة الاستخدام الخاصة بك ليس بالأمر الهيّن، خاصةً بالنسبة لنماذج التعلُّم العميق التي تتطلب في الغالب عدة آلاف إن لم يكن ملايين الأمثلة للتدريب المناسب. على الرغم من أن مسار بيانات مملوك يقدم فرصًا فريدة للتخصيص ومزايا تنافسية، إلا أن هناك مجموعات بيانات مفتوحة المصدر ذات سمعة طيبة متاحة لمعظم المجالات والمهام. في بعض المجالات، وخاصة معالجة اللغة الطبيعية (NLP)، يعد توليد البيانات الاصطناعية خيارًا قابلاً للتطبيق بشكل متزايد.

data preparation

لكي تُستخدم للتدريب، البيانات غير المنسقة—خاصةً عندما يتم جمعها مباشرة أو تجميعها من مصادر بيانات متعددة—تتطلب عادةً بعض المعالجة المسبقة، والتي قد تشمل تنظيف البيانات، وتعميم القيم، وتوحيد التنسيق. يوجد العديد من الخدمات لأتمتة بعض أو كل هذه العملية، مثل Docling، وهي أداة مفتوحة المصدر تحول ملفات PDF وتنسيقات الملفات الأخرى إلى نص أكثر قابلية للقراءة الآلية مع الاحتفاظ بالعناصر الهيكلية الهامة.

للتعلم الخاضع للإشراف، يجب تصنيف البيانات وأحيانًا التعليق عليها بتفاصيل مهمة. على سبيل المثال، يجب تصنيف الصور المستخدمة لتدريب نماذج تقسيم الصور إلى مستوى البكسل. هذا التصنيف قد يستلزم وقتاً وجهداً كبيرين، وكلاهما يجب أخذهما في الاعتبار في الجداول الزمنية والميزانية.

تحديد المَعلمات الفائقة

حتى بمجرد اختيار خوارزمية أو بنية نموذج، لا يزال لديك المزيد من الخيارات التي يمكنك اتخاذها. نادرًا ما تكون خوارزميات التعلم الآلي التقليدية ذات حجم واحد يناسب الجميع، كما أن الشبكات العصبية أقل توحيدًا. اختيار المعاملات الفائقة الصحيحة، وهي العناصر النمطية للخوارزمية التي تكون خارج نطاق تحسين المعلمات، أمر ضروري للتدريب الفعال والناجح.

عندما لا يسير التدريب بشكل مُرضٍ—أو عند العمل مع خوارزميات التعلّم غير الخاضع للإشراف أو خوارزميات التعلّم الخاضع للإشراف غير القياسي مثل أشجار القرار—يمكن تعديل أداء النموذج وتحسينه من خلال ضبط المعلمة الفائقة. قد يتطلب الأمر بعض التجربة والخطأ للوصول إلى معدل التعلم الأمثل، أو حجم الدفعة، أو دالة الخسارة (وشروط التنظيم)، أو خوارزمية التحسين.

إحدى هذه المعلمات هي تهيئة المعلمات القابلة للتعلم. عادةً ما تكون عشوائية، ولكن حتى التوزيع العشوائي للمعلمات له استراتيجيات متعددة. يمكن أيضًا "تعلم" المعلمات الأولية المثلى من خلال تقنية تسمى التعلم الفائق.

الأداء على بيانات التدريب

بعد تعيين المعلمات الأولية والمعلمات الفائقة، يعالج النموذج مجموعة من أمثلة بيانات الإدخال المستمدة من مجموعة بيانات التدريب. نظرا لأن المعلمات الأولية عشوائية، فإن النموذج بشكل عام لا ينتج عنه مخرجات "جيدة" حتى الآن. الهدف من تشغيل التدريب الأول هو ببساطة إنشاء خط أساس للتحسين. حجم الدفعة—عدد الأمثلة التي تتم معالجتها في كل "دفعة" قبل حساب الخسارة وتحسين المعلمات—هو في حد ذاته معلمة فائقة مهمة.

يوجد العديد من الأُطُر مفتوحة المصدر لتهيئة وتشغيل نماذج تعلم الآلة للتدريب، مثل PyTorch أو Keras أو TensorFlow. يعمل معظمها على Python أو JavaScript، وباعتبارها مشاريع تعتمد على المجتمع، توفر مكتبات شاملة للمحتوى التعليمي للمبتدئين.

حساب الخسارة (أو المكافأة)

أثناء عمل نموذجك من خلال أمثلة التدريب، تقوم دالة الخسارة التي اخترتها بتتبع التباين بين مخرجات النموذج والتحديثات "الصحيحة" لكل إدخال. في التعلم العميق، حيث تكون النماذج عبارة عن شبكات عصبية تتألف من معادلات مختلفة متداخلة مع بعضها البعض، يتم استخدام الانتشار العكسي لحساب كيفية مساهمة كل عقدة من الشبكة العصبية في الخسارة الإجمالية.

في التعلم الخاضع للإشراف، عادة ما يكون الهدف الرسمي للتدريب هو تقليل دالة الخسارة هذه. بعض بنيات النموذج، مثل برامج التشفير التلقائي المتغيرة (VAEs)، تعمل بدلاً من ذلك على إعادة صياغة المشكلة من حيث تعظيم بعض الوكلاء لدالة الخسارة. تسعى خوارزميات التعلم المعزز عادة إلى تعظيم دالة المكافأة وأحيانًا تقلل في نفس الوقت من حد التنظيم الذي يعاقب السلوكيات غير المرغوب فيها.

تحسين المَعلمات

عادةً ما يتم تحسين خوارزمية التعلم الآلي بواسطة خوارزمية منفصلة. في الرياضيات، تم تصميم خوارزمية التحسين لتقليل أو تعظيم بعض الدوال الأخرى—في هذه الحالة، دالة الخسارة أو دالة المكافأة—من خلال تحديد القيم المثلى للمتغيرات في تلك الدالة. في التعلم الآلي، هذه المتغيرات هي الأوزان والانحيازات في خوارزمية أو بين عقد مختلفة في شبكة عصبية.

تعتمد خوارزمية التحسين المثالية على نوع النموذج الذي يتم تدريبه. تستخدم العديد من خوارزميات التعلم الآلي (ML)، وخاصة النماذج المستندة إلى الشبكة العصبية، أشكالًا مختلفة من الانحدار التدرجي. قد تكون بعض الخوارزميات التي تتضمن دوال تربيعية، مثل آلات المتجهات الداعمة (SVMs)، أكثر فائدة عند استخدام البرمجة التربيعية. يتم عادةً تحسين خوارزميات الانحدار الخطي من خلال خوارزميات المربعات الصغرى . "التعلم المعزز لديه خوارزميات تحسين خاصة به، مثل تحسين سياسة التقريب (PPO)، وتحسين السياسة المباشر (DPO)، أو الناقد الفاعل التفوقي (A2C)."

يتم تكرار هذه السلسلة من خطوات التدريب—ضبط المعلمات الفائقة، وتشغيل النموذج على دفعة من بيانات التدريب، وحساب الخسارة وتحسين المعلمات—عبر عدة تكرارات حتى يتم تقليل الخسارة بشكل كافٍ.

تقييم النماذج

الأداء الممتاز في بيانات التدريب ليس، في حد ذاته، دليلًا قاطعًا على أن النموذج قد تم تدريبه وإعداده بنجاح للنشر في العالم الحقيقي. يجب توخي الحذر لتجنب فرط التخصيص، حيث يحفظ النموذج بشكل أساسي بيانات التدريب ولكن لا يمكنه التعميم جيدًا على البيانات الجديدة (وبالتالي يتعارض مع الغرض من التدريب). يمكن فهم فرط التخصيص على أنه مكافئ التعلم الآلي لـ "التدريس للاختبار."

لتجنّب فرط التخصيص، تتمثل الممارسة القياسية في تخصيص جزء من مجموعة بيانات التدريب في عملية تُسمى التحقق التبادلي. تسمح هذه العملية باختبار النموذج على بيانات جديدة لم يرها من قبل، مما يضمن تدريبه بشكل صحيح.

حلول ذات صلة
IBM watsonx.ai

تدريب الذكاء الاصطناعي التوليدي والتحقق من صحته وضبطه ونشره، وكذلك قدرات نماذج الأساس والتعلم الآلي باستخدام IBM watsonx.ai، وهو استوديو الجيل التالي من المؤسسات لمنشئي الذكاء الاصطناعي. أنشئ تطبيقات الذكاء الاصطناعي بسرعة أكبر وببيانات أقل.

اكتشف watsonx.ai
حلول الذكاء الاصطناعي

استفد من الذكاء الاصطناعي في عملك بالاستعانة بخبرة IBM الرائدة في مجال الذكاء الاصطناعي ومحفظة حلولها المتوفرة لك.

استكشف حلول الذكاء الاصطناعي
الاستشارات والخدمات المتعلقة بالذكاء الاصطناعي

أعدّ ابتكار عمليات ومهام سير العمل الحساسة بإضافة الذكاء الاصطناعي لتعزيز التجارب وصنع القرارات في الوقت الفعلي والقيمة التجارية.

استكشف خدمات الذكاء الاصطناعي
اتخِذ الخطوة التالية

احصل على وصول شامل إلى القدرات التي تغطي دورة حياة تطوير الذكاء الاصطناعي. تمكَّن من إنتاج حلول ذكاء اصطناعي قوية بفضل الواجهات سهلة الاستخدام وعمليات سير العمل السلسة وإمكانية الوصول إلى واجهات برمجة التطبيقات ومجموعات تطوير البرامج القياسية في الصناعة.

استكشف watsonx.ai احجز عرضًا توضيحيًا مباشرًا