ينص الافتراض المتشعب على أن مساحة الإدخال تشتمل على مشعبات متعددة الأبعاد أقل والتي تقع عليها جميع نقاط البيانات، وأن نقاط البيانات الموجودة على المتشعب نفسه تشارك في نفس التصنيف.
للحصول على مثال بديهي، فكر في قطعة من الورق مشكّلة على شكل كرة. لا يمكن تعيين موقع أي نقاط على السطح الكروي إلا بإحداثيات ثلاثية الأبعاد x، y، z . ولكن إذا تم الآن تسطيح هذه الكرة المجعدة مرة أخرى إلى فرخ من الورق، يمكن الآن تعيين هذه النقاط نفسها بإحداثيات س، ص ثنائية الأبعاد. وهذا ما يسمى تقليل الأبعاد، ويمكن تحقيقه رياضياً باستخدام طرق مثل التشفير الذاتي أو التلافيف.
في التعلم الآلي، لا تتوافق الأبعاد مع الأبعاد المادية المألوفة، ولكن مع كل سمة أو ميزة من ميزات البيانات. على سبيل المثال، في التعلّم الآلي، تحتوي صورة RGB صغيرة بحجم 32 × 32 بكسل على 3072 بُعدًا: 1024 بكسل، لكل منها ثلاث قيم (للأحمر والأخضر والأزرق). تمثل مقارنة نقاط البيانات ذات الأبعاد الكثيرة تحديًا كبيرًا، وذلك بسبب التعقيد والموارد الحسابية المطلوبة ولأن معظم هذا الفضاء عالي الأبعاد لا يحتوي على معلومات ذات معنى للمهمة المطروحة.
يعتقد الافتراض المتشعب أنه عندما يتعلم النموذج دالة اختزال الأبعاد المناسبة لتجاهل المعلومات غير ذات الصلة، تتلاقى نقاط البيانات المتباينة إلى تمثيل أكثر وضوحًا تكون فيه افتراضات التعلم شبه الخاضع للإشراف الأخرى أكثر موثوقية.