Nel 2020, Ho et alhanno proposto di utilizzare l'approccio di Sohl-Dickstein per generare immagini di alta qualità utilizzando l'inferenza variazionale nel loro articolo fondamentale, «Denoising diffusion probabilistic models» (DDPMS). Il loro articolo ha mostrato che massimizzare il limite inferiore delle evidenze (ELBO), un modo per riscrivere i problemi di ottimizzazione basati sulla probabilità in modo che siano trattabili, per addestrare modelli di diffusione è essenzialmente equivalente alla combinazione di obiettivi di abbinamento dei punteggi utilizzati per addestraregli SGM.
Implementando l'approccio di Sohl-Dickstein con la corrispondenza dei punteggi, Ho et al hanno dimostrato che i modelli probabilistici a diffusione possono raggiungere una qualità dell'immagine competitiva con i GAN, che all'epoca erano all'avanguardia. Queste connessioni sono state ulteriormente esplorate da Song, Ermon, Sohl-Dickstein e altri, tra cui Diederik P. Kingma, creatore del VAE, nel loro articolo del 2021, dal titolo "Score-Based Generative Modeling through Stochastic Differential Equations".
Nello stesso anno, Dhariwal e Nichol, utilizzando gli insight del documento precedentemente citato, pubblicarono "Diffusion Models Beat GaNs on Image Synthesis", stabilendo con sicurezza i modelli di diffusione come il nuovo stato dell'arte.
I DDPM, piuttosto che gli SGM, rimangono generalmente i modelli dominanti delle modalità di diffusione, anche se con miglioramenti introdotti nella ricerca successiva. Ad esempio, l'influente articolo del 2022 "High-Resolution Image Synthesis with Latent Diffusion Models" ha segnato importanti progressi in termini di efficienza ed economicità.