Lo que distingue a los VAEs de otros autocodificadores es la forma única en que codifican el espacio latente y los diferentes casos de uso a los que se puede aplicar su codificación probabilística.
A diferencia de la mayoría de los autocodificadores, que son modelos deterministas que codifican un único vector de variables latentes discretas, los VAES son modelos probabilísticos . Los VAEs codifican las variables latentes de los datos de entrenamiento no como un valor discreto fijo z, sino como un rango continuo de posibilidades expresado como una distribución de probabilidad p(z).
En las estadísticas bayesianas, este rango aprendido de posibilidades para la variable latente se denomina la distribución previa. En la inferencia variacional, el proceso generativo de síntesis de nuevos puntos de datos, esta distribución anterior se emplea para calcular la distribución posterior, p(z|x). En otras palabras, el valor de las variables observables x, dado un valor para la variable latente z.
Para cada atributo latente de los datos de entrenamiento, los VAEs codifican dos vectores latentes diferentes: un vector de medias, “μ”, y un vector de desviaciones estándar, “σ”. En esencia, estos dos vectores representan el rango de posibilidades para cada variable latente y la variación esperada dentro de cada rango de posibilidades.
Al muestrear aleatoriamente dentro de este rango de posibilidades codificadas, los VAEs pueden sintetizar nuevas muestras de datos que, aunque son únicas y originales en sí mismas, se asemejan a los datos de entrenamiento originales. Aunque en principio es relativamente intuitiva, esta metodología requiere adaptaciones adicionales a la metodología estándar de autocodificador para ponerla en práctica.
Para explicar esta capacidad de las VAEs, repasaremos los siguientes conceptos:
- Pérdida de reconstrucción
- Divergencia de Kullback-Leibler (KL)
- Límite inferior de evidencia (ELBO)
- El truco de la reparametrización