Selon l'hypothèse multiple, l'espace d'entrée de haute dimensionnalité englobe plusieurs espaces de dimension inférieure sur lesquels se trouvent tous les points de données, et les points de données sur le même manifold partagent la même étiquette.
Pour y voir plus clair, prenons l’exemple d’une feuille froissée en boule. L’emplacement de tout point sur la surface sphérique ne peut être localisé qu’avec des coordonnées x,y,z tridimensionnelles. Mais si cette boule froissée est maintenant aplatie pour reformer une feuille de papier, ces mêmes points peuvent désormais être localisés avec des coordonnées bidimensionnelles x, y. C’est ce que l’on appelle la réduction de dimensionnalité, et cela peut être réalisé mathématiquement avec des méthodes telles que les auto-encodeurs ou les convolutions.
Dans le machine learning, les dimensions ne se rapportent pas à l'espace physique habituel, mais à chaque attribut ou caractéristique des données. Par exemple, dans le machine learning, une petite image RVB mesurant 32 x 32 pixels comporte 3 072 dimensions, à savoir 1 024 pixels ayant chacun trois valeurs (rouge, vert et bleu). Il est difficile de comparer des points de données avec autant de dimensions, d'une part en raison de la complexité et de la puissance de calcul requise, mais aussi car la majorité de cet espace de haute dimensionnalité ne contient pas d'informations significatives pour la tâche à accomplir.
L'hypothèse multiple suppose que, lorsqu'un modèle apprend la fonction de réduction de dimensionnalité appropriée pour ignorer les informations qui ne sont pas pertinentes, les points de données disparates convergent vers une représentation plus significative pour laquelle les autres hypothèses de SSL sont plus fiables.