في مصطلحات التعلم الآلي، يعد انحدار ريدج بمثابة إضافة تحيز إلى النموذج من أجل تقليل تباين هذا النموذج. وتعد مقايضة التحيز والتباين مشكلة معروفة في التعلم الآلي. لكن لفهم مقايضة التحيز والتباين، من الضروري أولاً معرفة معنى "التحيز" و"التباين" على التوالي في أبحاث التعلم الآلي.
باختصار: التحيز يقيس متوسط الفرق بين القيم المتوقعة والقيم الحقيقية؛ بينما التباين يقيس الفرق بين التنبؤات في الإحداثات المختلفة في نموذج معين. فمع زيادة التحيز، يتنبأ النموذج بدقة أقل في مجموعة بيانات التدريب. ومع زيادة التباين، يتنبأ النموذج بدقة أقل في مجموعات البيانات الأخرى. وبالتالي فإن التحيز والتباين يقيسان دقة النموذج في مجموعات التدريب والاختبار على التوالي. ومن الواضح أن المطورين يأملون في تقليل انحياز النموذج وتباينه. ومع ذلك، فإن التخفيض المتزامن في كليهما ليس ممكنًا دائمًا، وبالتالي هناك حاجة إلى أساليب ضبط مثل انحدار ريدج.
كما ذكرنا سابقًا، يقدم ضبط انحدار ريدج انحيازًا إضافيًا من أجل تقليل التباين. بمعنى آخر، تنتج النماذج التي ضبطها انحدار ريدج تنبؤات أقل دقة بشأن بيانات التدريب (تحيز أعلى) لكنها تنتج تنبؤات أكثر دقة على بيانات الاختبار (تباين أقل). هذه هي مقايضة التحيز والتباين. من خلال انحدار ريدج، يحدد المستخدمون مقدارًا من الخسارة المقبولة في دقة التدريب (تحيز أعلى) لزيادة تعميم نموذج معين (تباين أقل).13 وبهذه الطريقة، يساعد التحيز المتزايد في تحسين الأداء العام للنموذج.
تُحدَّد القوة الجزائية لـ L2، وبالتالي مقايضة تباين التحيز للنموذج، من خلال القيمة λ في معادلة دالة خسارة مقدّر انحدار ريدج. فإذا كانت تساوي صفرًا، فسيتبقى لدينا دالة للمربعات الصغرى العادية. ويؤدي هذا إلى إنشاء نموذج انحدار خطي قياسي دون أي ضبط. على العكس من ذلك، فإن قيمة λ الأعلى سوف تعني مزيدًا من الضبط. ومع زيادة λ، يزداد انحياز النموذج بينما يتناقص التباين. وبالتالي، عندما تساوي λ صفرًا، فإن النموذج يبالغ في تجهيز بيانات التدريب على نحوٍ زائد، لكن عندما تكون λ مرتفعة جدًا، فإن النموذج، على العكس، ينقُصُ تجهيزه لجميع البيانات.14
يساعد متوسط الخطأ التربيعي (MSE) في تحديد قيمة λ المناسبة. ويرتبط متوسط الخطأ التربيعي (MSE) ارتباطًا وثيقًا بـ RRS وهي وسيلة لقياس الفرق، في المتوسط، بين القيم المتوقعة والقيم الحقيقية. وكلما انخفض متوسط الخطأ التربيعي (MSE) في النموذج، زادت تنبؤاته دقة. لكن متوسط الخطأ التربيعي (MSE) يزيد مع زيادة λ. ومع ذلك، يُقال إنه توجد دائمًا قيمة λ أكبر من الصفر بحيث يكون متوسط الخطأ التربيعي (MSE) الذي تم الحصول عليه من خلال انحدار ريدج أصغر من ذلك الذي تم الحصول عليه من خلال المربعات الصغرى الخطية.15 إحدى الطرق لاستنتاج قيمة λ مناسبة هي إيجاد أعلى قيمة لـ λ لا تزيد من متوسط الخطأ التربيعي (MSE)، كما هو موضح في الشكل 2. ويمكن أن تساعد أساليب التحقق المتبادل الإضافية المستخدمين على تحديد قيم λ المثلى لضبط نموذجهم.16