L'ipotesi molteplice afferma che lo spazio di input dimensionalmente più elevato comprende collettori di dimensioni inferiori sulle quali giacciono tutti i punti dati, e che i punti dati del medesimo collettore condividono la medesima etichetta.
Per un esempio intuitivo, prediamo un foglio di carta che viene accartocciato fino a formare una palla. La posizione di qualsiasi punto sulla superficie sferica può essere mappata solo con coordinate x,y,z tridimensionali. Tuttavia, se quella palla accartocciata viene ora spiegata nuovamente in un foglio di carta, quegli stessi punti possono ora essere mappati con coordinate x,y bidimensionali. Questa operazione è chiamata riduzione della dimensionalità e può essere ottenuta matematicamente utilizzando metodi come l'autoencoder o le convoluzioni.
Nell'apprendimento automatico, le dimensioni non corrispondono alle dimensioni fisiche a noi familiari, ma a ciascun attributo o caratteristica dei dati. Ad esempio, una piccola immagine RGB che misura 32x32 pixel ha 3.072 dimensioni, ovvero1.024 pixel ognuno dei quali ha tre valori (per rosso, verde e blu). Confrontare punti dati con così tante dimensioni è complicato, sia a causa della complessità e delle risorse computazionali richieste, sia perché la maggior parte di quello spazio ad alta dimensione non contiene informazioni significative per l'attività da svolgere.
L'ipotesi molteplice sostiene che quando un modello apprende la corretta funzione di riduzione della dimensionalità per scartare le informazioni irrilevanti, i punti dati eterogenei convergono verso una rappresentazione più significativa, per la quale le altre ipotesi SSL risultano più affidabili.