Asumsi lipatan menyatakan bahwa ruang input berdimensi lebih tinggi terdiri dari beberapa lipatan berdimensi lebih rendah yang menjadi tempat semua titik data berada, dan titik data pada lipatan yang sama memiliki label yang sama.
Sebagai contoh intuitif, pertimbangkan selembar kertas yang diremas menjadi bola. Lokasi titik mana pun pada permukaan bola hanya dapat dipetakan dengan koordinat x,y,z tiga dimensi. Namun, jika bola yang kusut itu sekarang diratakan kembali menjadi selembar kertas, titik-titik yang sama sekarang dapat dipetakan dengan koordinat x,y dua dimensi. Ini disebut reduksi dimensi, dan dapat dicapai secara matematis menggunakan metode seperti autoencoder atau konvolusi.
Dalam machine learning, dimensi tidak berhubungan dengan dimensi fisik yang kita kenal, tetapi dengan setiap atribut atau fitur data. Sebagai contoh, dalam machine learning, gambar RGB kecil berukuran 32x32 piksel memiliki 3.072 dimensi: 1.024 piksel, yang masing-masing memiliki tiga nilai (untuk merah, hijau, dan biru). Membandingkan titik data dengan begitu banyak dimensi merupakan hal yang menantang, baik karena kompleksitas dan sumber daya komputasi yang diperlukan dan karena sebagian besar ruang dimensi tinggi tersebut tidak mengandung informasi yang berarti bagi tugas yang sedang dikerjakan.
Asumsi lipatan menyatakan bahwa ketika sebuah model mempelajari fungsi reduksi dimensi yang tepat untuk membuang informasi yang tidak relevan, titik-titik data yang berbeda akan menyatu menjadi representasi yang lebih bermakna sehingga asumsi SSL yang lain dapat diandalkan.