تستخدِم مشكلات الانحدار مفهومًا مشابهًا لمشكلات التصنيف، ولكن في هذه الحالة، يتم أخذ متوسط جيران أقرب k لإجراء التنبؤ بشأن التصنيف. والتمييز الرئيسي هنا هو أن التصنيف يُستخدَم للقيم المنفصلة، بينما يُستخدم الانحدار مع القيم المستمرة. ومع ذلك، قبل إجراء التصنيف، يجب تحديد المسافة. المسافة الإقليدية هي الأكثر استخدامًا، وسنتناولها بمزيد من التفصيل أدناه.
من الجدير بالذكر أيضًا أن خوارزمية KNN تنتمي إلى عائلة نماذج "التعلم الكسول"، ما يعني أنها تكتفي بتخزين مجموعة بيانات التدريب بدلًا من الخضوع لمرحلة تدريب فعلية. وهذا يعني أيضًا أن جميع العمليات الحسابية تتم عند إجراء التصنيف أو التنبؤ. نظرًا لأنها تعتمد بشكل كبير على الذاكرة لتخزين جميع بيانات التدريب الخاصة بها، يُشار إليها أيضًا باسم طريقة التعلم القائم على المثيل أو التعلم القائم على الذاكرة.
يُنسب إلى Evelyn Fix وJoseph Hodges طرح الأفكار الأولية حول نموذج KNN في هذا البحث الصادر في عام 1951، بينما وسَّع Thomas Cover هذا المفهوم في بحثه Nearest Neighbor Pattern Classification. على الرغم من أنها لم تَعُد شائعة كما كانت من قبل، إلا أنها لا تزال واحدة من أولى الخوارزميات التي يتعلمها المرء في علم البيانات نظرًا لبساطتها ودقتها. ومع ذلك، مع نمو مجموعة البيانات، تصبح خوازرمية KNN غير فعَّالة بشكل متزايد، ما يؤثر في أداء النموذج بشكل عام. وهي تُستخدَم عادةً في أنظمة التوصيات البسيطة، والتعرُّف على الأنماط، والتنقيب عن البيانات، والتنبؤات في الأسواق المالية، وكشف التسلل، وغير ذلك.