A diferença fundamental entre VAEs e outros tipos de autocodificadores é que, embora a maioria dos autocodificadores aprenda modelos de espaço latente discretos, os VAEs aprendem modelos variáveis contínuos latentes. Em vez de um único vetor de codificação para o espaço latente, os VAEs modelam dois vetores diferentes: um vetor de médias, "μ", e um vetor de desvios padrão, "σ". Como esses vetores capturam atributos latentes como uma distribuição de probabilidade, ou seja, aprendem uma codificação estocástica em vez de uma codificação determinística , os VAEs permitem interpolação e amostragem aleatórias, expandindo muito seus recursos e casos de uso. Isso significa que VAEs são modelos de IA generativos.
Em termos mais simples, os VAEs aprendem a codificar aprendizados de recursos importantes a partir das entradas nos conjuntos de dados nos quais são treinados de uma maneira flexível e aproximada, que lhes permite gerar novas amostras que se assemelham aos dados de treinamento originais. A função de perda utilizada para minimizar o erro de reconstrução é regularizada pela divergência de KL entre a distribuição de probabilidade de dados de treinamento (a distribuição anterior) e a distribuição de variáveis latentes aprendidas pelo VAE (a distribuição posterior). Essa função de perda regularizada permite que os VAEs gerem novas amostras que se assemelham aos dados em que foram treinados, evitando sobreajuste, o que, neste caso, significaria gerar novas amostras muito idênticas aos dados originais.
Para gerar uma nova amostra, o VAE seleciona um vetor latente aleatório (ε) dentro da distribuição Gaussiana unitária, ou seja, escolhe um ponto de partida aleatório dentro da distribuição normal, desloca-o pela média da distribuição latente (μ) e o dimensiona pela variância da distribuição latente (σ). Esse processo, conhecido como truque de reparametrização,5 evita a amostragem direta da distribuição variacional: como o processo é aleatório, ele não possui derivada, o que elimina a necessidade de retropropagação na etapa de amostragem.
Quando um VAE está sendo utilizado para tarefas generativas, o codificador geralmente pode ser descartado após o treinamento. Evoluções mais avançadas dos VAEs, como os VAEs condicionais, dão ao usuário maior controle sobre as amostras geradas, apresentando entradas condicionais que modificam a saída do codificador.