La suposición de las variedades indica que el espacio de entrada de mayor dimensión comprende varias variedades de dimensiones inferiores en las que se encuentran todos los puntos de datos y que los puntos de datos de la misma variedad comparten la misma etiqueta.
Para un ejemplo intuitivo, considere un trozo de papel arrugado en forma de bola. La ubicación de cualquier punto en la superficie esférica solo se puede representar con coordenadas tridimensionales x, y, z. Pero si esa bola arrugada ahora se aplana nuevamente en una hoja de papel, esos mismos puntos ahora se pueden representar con coordenadas bidimensionales x, y. Esto se denomina reducción de dimensionalidad y se puede lograr matemáticamente utilizando métodos como autocodificadores o convoluciones.
En el machine learning, las dimensiones no corresponden a las dimensiones físicas conocidas, sino a cada atributo o entidad de datos. Por ejemplo, en machine learning, una pequeña imagen RGB que mide 32x32 píxeles tiene 3.072 dimensiones: 1.024 píxeles, cada uno de los cuales posee tres valores ( rojo, verde y azul). La comparación de puntos de datos con tantas dimensiones es difícil, tanto por la complejidad y los recursos computacionales necesarios como porque la mayor parte de ese espacio de altas dimensiones no contiene información significativa para la tarea en cuestión.
La suposición de las variedades sostiene que cuando un modelo aprende la función de reducción de dimensionalidad adecuada para descartar la información irrelevante, los puntos de datos dispares convergen en una representación más significativa para la que las demás suposiciones SSL son más confiables.