Model difusi adalah model generatif yang digunakan terutama untuk pembuatan gambar dan tugas visi komputer lainnya. Neural networks berbasis difusi dilatih melalui pembelajaran mendalam untuk secara progresif "menyebarkan" sampel dengan noise acak, kemudian membalikkan proses difusi tersebut untuk menghasilkan gambar berkualitas tinggi.
Model difusi adalah salah satu arsitektur neural network di garis depan AI generatif, terutama diwakili oleh model teks-ke-gambar populer termasuk Stable Diffusion dari Stability AI, DALL-E dari OpenAI (mulai dari DALL-E-2), Midjourney, dan Imagen dari Google. Model ini meningkatkan kinerja dan stabilitas arsitektur machine learning lain yang digunakan untuk sintesis gambar seperti variational autoencoders (VAEs), generative adversarial networks (GANs), dan model autoregresif seperti PixelCNN.
Intuisi di balik model difusi terinspirasi oleh fisika, memperlakukan piksel seperti molekul-molekul setetes tinta yang menyebar dalam segelas air dari waktu ke waktu. Sama seperti pergerakan acak molekul tinta yang pada akhirnya akan menyebabkan penyebarannya yang merata dalam kaca, pengenalan noise secara acak ke dalam gambar, pada akhirnya akan menghasilkan gambar yang terlihat seperti gambar statis TV. Dengan memodelkan proses difusi tersebut, kemudian entah bagaimana belajar untuk membalikkan proses tersebut, model kecerdasan buatan dapat menghasilkan gambar baru hanya dengan melakukan "denoising" sampel noise acak.
Model difusi paling menonjol dikaitkan dengan pembuatan gambar dan tugas pemrosesan gambar lainnya seperti inpainting dan resolusi super, tetapi aplikasinya meluas ke domain lain termasuk pembuatan audio, desain obat, dan pembuatan molekul. Untuk lebih mudahnya, artikel ini akan berfokus pada pembuatan gambar.
Untuk menjelaskan dan memahami model difusi, pertama-tama penting untuk dicatat bahwa proses generatif yang sekarang disebut "difusi" ditemukan secara independen dalam dua kesempatan terpisah melalui dua pendekatan matematis yang berbeda. Singkatnya, ada beberapa cara agar model difusi, yang secara konseptual sederhana tetapi secara matematis rumit, dapat "bekerja".
Perkembangan selanjutnya telah meminjam ide dari kedua pendekatan, memadukan keunggulan masing-masing hingga akhirnya menghasilkan model difusi modern yang saat ini mendominasi bidang pembuatan gambar. Tinjauan singkat mengenai sejarah dan teori model difusi dengan demikian memudahkan pemahaman tidak hanya mengenai cara kerja model difusi, tetapi juga alasan mengapa model itu berfungsi.
Model difusi yang terinspirasi dari fisika pertama kali diperkenalkan oleh Sohl-Dickstein et al dalam makalah mereka di tahun 2015, "Deep Unsupervised Learning using Nonequilibrium Thermodynamics." Algoritma mereka menerapkan dinamika Langevin, sebuah metode untuk memodelkan pergerakan sistem molekuler, untuk menjamin premis dasar model difusi: mengubah data menjadi noise, sehingga Anda kemudian dapat mengubah noise menjadi data.
Seperti kebanyakan model generatif, seperti variational autoencoders (VAE), algoritma Sohl-Dickstein memodelkan densitas probabilitas: kemungkinan relatif dari variabel yang diambil sampelnya secara acak, x, yang berada di dalam rentang nilai tertentu. Pada dasarnya, memodelkan fungsi kepadatan probabilitas untuk kumpulan data pelatihan memungkinkan algoritma untuk kemudian menghasilkan sampel yang sangat mungkin sesuai dengan distribusi data pelatihan. Saat menghasilkan gambar baru, model mengasumsikan probabilitas tinggi nilai piksel didistribusikan dengan cara tertentu, berdasarkan distribusi probabilitas yang dipelajari dari pola dalam data pelatihan.
Secara logika, fungsi kepadatan probabilitas membutuhkan peluang dari semua kemungkinan untuk dijumlahkan hingga 1. Dengan kata lain, persentase peluang dari semua kemungkinan harus berjumlah tepat 100%. Dalam praktik, hal ini sering kali membutuhkan konstanta normalisasi: nilai yang dimasukkan ke dalam fungsi probabilitas yang mengurangi probabilitas total menjadi 1.
Menghitung konstanta normalisasi yang berfungsi untuk semua nilai variabel yang mungkin sering kali sulit dilakukan: secara teknis dapat dipecahkan, tetapi membutuhkan waktu yang tak terbatas untuk menghitungnya. Dalam kasus seperti itu, model berbasis peluang harus dibatasi pada arsitektur model tertentu atau mengembangkan solusi cerdas yang mendekati konstanta normalisasi dengan cara yang mudah digunakan.
Terlepas dari karya Sohl-Dickstein, Yang Song dan Stefano Ermon mengembangkan jenis model berbasis energi yang disebut jaringan skor kondisional kebisingan dalam makalah 2019 mereka, "Pemodelan Generatif dengan Memperkirakan Gradien Distribusi Data." Algoritma mereka memodelkan gradien(∇x) logaritma () dari fungsi kerapatan probabilitas . Gradien fungsi kerapatan probabilitas log, ditulis sebagai disebut dengan skor Stein atau secara sederhana disebut “score function" atau fungsi skor.
Tidak seperti fungsi kepadatan probabilitas konvensional, fungsi skor tidak memerlukan konstanta normalisasi karena tidak secara langsung memodelkan kepadatan probabilitas (dan oleh karena itu tidak perlu menormalkan probabilitas total ke 1). Sebaliknya, fungsi ini dilatih melalui pencocokan skor: parameter model pembelajaran, θ, yang menghasilkan model pθ(x) yang skornya—dengan kata lain, gradiennya—cocok dengan distribusi data q(x) dari data pelatihan.
Manfaat lain dari model generatif berbasis skor (SGM) adalah, tidak seperti model berbasis peluang, model ini tidak memberikan banyak batasan pada arsitektur model pθ(x).
Saat menjelajahi cara-cara untuk meningkatkan kinerja model mereka, Song dan Ermon secara kebetulan menemukan teknik yang sama dengan yang digunakan oleh Sohl-Dickstein dkk. Makalah mereka mencatat bahwa “data yang terganggu oleh noise acak Gaussian membuat distribusi data lebih dapat diterima oleh pemodelan generatif berbasis skor.” Model mereka, yang dibangun menggunakan arsitektur U-Net yang awalnya dikembangkan untuk segmentasi gambar, juga menerapkan dinamika Langevin untuk menghasilkan sampel.
Pada tahun 2020, Ho dkk mengusulkan penggunaan pendekatan Sohl-Dickstein untuk menghasilkan gambar berkualitas tinggi dengan menggunakan inferensi variasi dalam makalah penting mereka, “Denoising diffusion probabilistic models” (DDPM). Makalah mereka menunjukkan bahwa memaksimalkan batas bawah bukti (ELBO)—cara untuk menulis ulang masalah optimasi berbasis probabilitas agar dapat dilacak—untuk melatih model difusi pada dasarnya setara dengan kombinasi tujuan pencocokan skor yang digunakan untuk melatih SGM.
Menerapkan pendekatan Sohl-Dickstein dengan menggunakan pencocokan skor, Ho et al menunjukkan bahwa model probabilistik difusi dapat menghasilkan kualitas gambar yang bersaing dengan GAN, yang pada saat itu merupakan model yang paling canggih. Hubungan ini dieksplorasi lebih lanjut oleh Song, Ermon, Sohl-Dickstein, dan lainnya-termasuk Diederik P. Kingma, pencipta VAE-dalam makalah tahun 2021, “Score-Based Generative Modeling through Stochastic Differential Equations.”
Kemudian pada tahun yang sama, Dhariwal dan Nichol, dengan memanfaatkan insight dari makalah yang disebutkan sebelumnya, menerbitkan “Diffusion Models Beat GANs on Image Synthesis,” yang secara tegas menetapkan model difusi sebagai model mutakhir yang baru.
DDPM, alih-alih SGM, umumnya tetap menjadi mode dominan dari model difusi, meskipun dengan perbaikan yang dipelopori melalui penelitian berikutnya. Sebagai contoh, makalah tahun 2022 yang berpengaruh, “High-Resolution Image Synthesis with Latent Diffusion Models” menandai kemajuan penting dalam hal efisiensi dan efektivitas biaya.
Dalam pelatihan, model difusi secara bertahap mendifusikan titik data dengan noise acak, selangkah demi selangkah, hingga noise tersebut hancur, kemudian belajar membalikkan proses difusi tersebut dan merekonstruksi distribusi data asli.
Model difusi yang telah dilatih kemudian dapat menghasilkan titik data baru yang menyerupai data pelatihan hanya dengan melakukan denoising pada sampel awal acak dari noise murni. Secara konseptual, ini mirip dengan autoencoder denoising di mana gambar dengan noise bertindak sebagai variabel laten.
Mengubah noise acak secara langsung menjadi gambar yang koheren sangatlah sulit dan rumit, tetapi mengubah gambar dengan noise menjadi gambar yang tidak terlalu memiliki banyak noise, secara relatif mudah dan tidak berbelit-belit. Oleh karena itu, model difusi merumuskan proses difusi terbalik sebagai transformasi bertahap dari distribusi sederhana (seperti noise Gaussian) ke distribusi yang lebih kompleks (seperti gambar yang koheren).
Proses pelatihan dan kemudian penerapan difusi dapat dipecah menjadi tiga tahap utama:
Tujuan dari proses difusi maju adalah untuk mengubah data yang bersih dari kumpulan data pelatihan, seperti sampel gambar atau audio, menjadi noise murni. Metode yang paling umum melibatkan penyuntikan noise gaussian secara berulang sampai seluruh distribusi data adalah gaussian.
Secara matematis, proses langkah demi langkah ini diformulasikan sebagai rantai Markov: jenis proses stokastik—proses acak yang mengikuti aturan probabilitas tertentu—untuk memodelkan data deret waktu yang berurutan. Dalam rantai Markov, hasil pada setiap langkah waktu hanya dipengaruhi oleh langkah waktu yang tepat sebelum itu. Sederhananya: xt, keadaan rantai Markov x pada langkah waktu t, secara langsung hanya dipengaruhi oleh xt-1. Fungsi matematika yang mendefinisikan transisi dari setiap xt hingga xt+1 disebut kernel transisi.
Pada setiap langkah waktu t, sejumlah kecil noise Gaussian ditambahkan ke xt-1 dan gambar kemudian diskalakan ulang untuk mempertahankan ukuran gambar yang konstan meskipun ada injeksi piksel acak secara terus-menerus. Dalam formulasi ini, x0 adalah titik data asli yang bersih; x1 adalah titik data setelah langkah waktu pertama, dengan sedikit noise gaussian yang ditambahkan ke dalamnya; xT adalah kondisi akhir proses difusi maju. Jika T cukup besar—yaitu, setelah langkah yang cukup—xT akan menyatu menjadi noise gaussian murni.
Kami mendefinisikan setiap langkah maju sebagai memprediksi keadaan distribusi data q(xt), mengingat q(xt-1). Dalam DDPM standar, proses maju ini tidak melibatkan machine learning apa pun: hasil akhir dari rantai Markov akan selalu berupa distribusi gaussian, dan dengan demikian tidak memerlukan pengoptimalan.
Dalam DDPM, noise Gaussian yang ditambahkan pada setiap langkah dalam rantai Markov tidak konstan atau berubah-ubah. Sebaliknya, noise berasal dari struktur gambar asli dan kecepatan penambahannya terus meningkat pada setiap langkah yang berurutan.
Memvariasikan jumlah noise akan meningkatkan stabilitas pelatihan model dan meningkatkan performa secara keseluruhan dengan menyeimbangkan dua prioritas yang saling bersaing. Seperti yang dicatat oleh Yang Song dalam postingan blognya tentang model generatif berbasis skor:
Ingat bahwa setiap distribusi gaussian (normal) memiliki mean, , dan varians, . Parameter lain, β, berfungsi sebagai faktor penskalaan untuk mean dan varians dari noise gaussian dalam kernel transisi yang mendefinisikan setiap langkah dalam rantai Markov maju. Mengubah nilai β pada langkah tertentu akan mengubah noise gaussian yang ditambahkan pada langkah tersebut. β1 adalah varians pada langkah waktu 1; βt adalah varians pada langkah waktu t,dan seterusnya, hingga βT.
Nilai tarif β pada setiap langkah, pada gilirannya, ditentukan oleh jadwal varians.
Pada setiap langkah t, gambar sedikit bergeser dari iterasi pada langkah sebelumnya (sesuai rata-rata) dan noise ditambahkan ke versi gambar yang bergeser ini (sesuai varians). Besarnya setiap pergeseran dan penambahan noise didorong oleh nilai βt: karena βt meningkat sesuai dengan jadwal varians, maka laju difusi terus meningkat sebagai hasilnya. β selalu bernilai antara 0 dan 1: jadi, 0 < β1 < β2 < … < βT < 1.
Memilih jadwal varians spesifik untuk β merupakan pertimbangan penting. Biasanya ini ditetapkan secara manual sebagai hiperparameter, baik ditetapkan pada nilai konstan atau mengikuti rumus tertentu dengan nilai awal dan nilai akhir yang telah ditentukan untuk β. Dalam makalah DDPM, Ho et al menggunakan jadwal linier dengan 1.000 langkah di mana β1 = 10-4 and βT = 0.02. Penelitian selanjutnya menemukan peningkatan kinerja dan efisiensi dengan jenis jadwal lain, seperti jadwal kosinus,[1] atau menjadikan jadwal itu sendiri sebagai parameter yang dipelajari.[2]
Nilai βt menentukan mean dan varians noise Gaussian yang ditambahkan pada langkah t.
Singkatnya, pada setiap langkah t, gambar sedikit bergeser dari iterasi pada langkah sebelumnya (sesuai mean) dan noise ditambahkan ke versi gambar yang bergeser ini (sesuai varians). Besarnya setiap pergeseran dan penambahan noise didorong oleh nilai βt: karena βt meningkat sesuai dengan jadwal varians, maka laju difusi terus meningkat sebagai hasilnya.
Karena penambahan noise gaussian dimulai secara bertahap, dan noise itu sendiri selalu berasal dari struktur esensial gambar asli pada langkah sebelumnya, maka, kualitas esensial gambar asli dipertahankan untuk banyak langkah. Hal ini memungkinkan model untuk mempelajari pola dan struktur distribusi data asli secara bermakna selama proses difusi balik.
Salah satu kekurangan dari proses langkah demi langkah tersebut adalah proses ini tidak praktis dan mahal secara komputasi: untuk setiap gambar dalam kumpulan data pelatihan yang mungkin berisi ribuan atau jutaan gambar, proses penerusan akan memerlukan puluhan atau ratusan langkah individual.
Alih-alih berulang kali menambahkan noise, formula untuk proses maju dapat ditulis ulang dengan cara yang cerdas dengan memparameterisasi ulang ekspresi sebagai parameter baru, . Melalui “properti bagus” rantai Markov, parameter baru ini dapat diperluas lebih lanjut ke parameter tambahan, , berasal dari perkalian berulang dari pada setiap langkah progresif dalam rantai hingga titik itu. Parameter tambahan ini pada dasarnya mencerminkan rasio signal-to-noise (SNR) xt: dengan kata lain, berapa banyak gambar asli yang tersisa pada langkah waktu t.
Misalnya, pada x1, sejumlah kecil noise telah ditambahkan satu kali. Nilai mendekati 1, artinya gambar masih mempertahankan sebagian besar sinyal "aslinya." Pada langkah berikutnya, seperti x50, noise telah ditambahkan berkali-kali. Karena , nilai selalu kurang dari 1. Sejak , nilai pada langkah 50 akan jauh lebih dekat ke 0, yang berarti lebih banyak gambar asli telah digantikan oleh noise. Pada langkah waktu T, xT sepenuhnya merupakan noise dan nilainya mendekati 0.
Meskipun derivasi persamaan yang rumit berada di luar cakupan artikel ini, tetapi ada dua hal penting yang bisa diambil untuk memahami pentingnya trik reparameterisasi ini:
Dalam model difusi, proses difusi terbalik adalah tempat machine learning yang sebenarnya terjadi. Dalam belajar melakukan kebalikan dari langkah noising pada proses maju, model ini pada dasarnya belajar untuk meniadakan noise gaussian murni menjadi gambar yang bersih. Setelah neural networks dilatih, kemampuan ini dapat digunakan untuk menghasilkan gambar baru dari noise gaussian melalui difusi balik langkah demi langkah.
Secara teori, tugas model dapat dianggap sebagai kebalikan sederhana dari difusi maju. Proses maju, dimulai dengan titik dat x0 yang diambil sampelnya dari distribusi data riil q(x) dari kumpulan data pelatihan, didefinisikan sebagai : yaitu, dengan , hitung . Kebalikannya, difusi terbalik, akan didefinisikan sebagai . Namun dalam praktiknya, komputasi tidak bisa dipecahkan
Sebaliknya, tugas pelatihan dirumuskan melalui dua solusi:
Ingatlah lagi bahwa mean noise gaussian yang ditambahkan dalam difusi maju tidak sewenang-wenang: meskipun memang acak, struktur noise awalnya berasal dari struktur gambar asli x0. Oleh karena itu, dengan belajar memprediksi noise secara akurat melalui difusi terbalik, model tidak hanya belajar untuk menghilangkan noise gambar, tetapi juga secara implisit mempelajari struktur x0.
Sasaran pelatihan khusus yang digunakan untuk model difusi terkait erat dengan istilah kerugian rekonstruksi yang digunakan untuk mengoptimalkan pembuat enkode otomatis variasi (variational autoencoder/VAE). Seperti VAE, model difusi dioptimalkan dengan memaksimalkan batas bawah variasi (variational lower limit/VLB), yang juga disebut batas bawah bukti (evidence lower limit/ELBO), dari kombinasi beberapa istilah kerugian.
Memaksimalkan VLB digunakan dalam inferensi variasional untuk memperkirakan fungsi skor yang sulit diselesaikan : alih-alih meminimalkan kesalahan secara langsung, metode ini merumuskan kembali persamaan sebagai memaksimalkan estimasi minimum (atau batas bawah) dari akurasi prediksi model.
Istilah kehilangan yang digunakan masing-masing mencerminkan divergensi Kullback-Leibler (atau "Divergensi KL," biasanya dilambangkan sebagai DKL) antara hasil langkah-langkah difusi maju q dan langkah-langkah terbalik yang diprediksi oleh pθ. Divergensi KL digunakan untuk mengukur perbedaan antara dua distribusi probabilitas—misalnya, antara distribusi nilai piksel pada satu gambar dan distribusi nilai piksel pada gambar lainnya.
Secara khusus, fungsi kerugian untuk model difusi menggabungkan tiga istilah kerugian LT, Lt dan L0.
Meskipun derivasi matematisnya yang rumit berada di luar cakupan artikel ini, VLB pada akhirnya dapat disederhanakan menjadi kesalahan kuadrat mean (MSE) antara noise yang diprediksi oleh model, dan noise yang sebenarnya ditambahkan dalam proses maju, , pada setiap langkah waktu. Ini menjelaskan mengapa output model adalah prediksi noise pada setiap langkah, bukan gambar yang mengalami denoise itu sendiri.
Dengan menghitung gradien fungsi kehilangan selama backpropagation dan kemudian menyesuaikan bobot model untuk meminimalkan fungsi kerugian melalui penurunan gradien, prediksi model di seluruh kumpulan data pelatihan akan menjadi lebih akurat.
Setelah model difusi belajar untuk secara akurat memperkirakan noise yang akan dikurangi pada setiap langkah, model ini dapat digunakan untuk menghasilkan gambar baru dengan mengambil sampel dari gambar berisik acak xT dari distribusi data yang telah dipelajari dan melakukan denoising selama langkah T. Serupa dengan VAE, memperkenalkan sedikit elemen keacakan ke dalam proses pengambilan sampel memungkinkan model difusi untuk menghasilkan gambar baru yang menyerupai data pelatihan, daripada secara langsung mereproduksi gambar pelatihan.
Tidak seperti pada proses pelatihan difusi balik, jumlah langkah pada proses pembuatan tidak harus sama dengan jumlah langkah yang digunakan pada proses maju. Hal ini dimungkinkan karena model dilatih untuk memprediksi seluruh noise pada setiap langkah gambar, bukan jumlah noise tertentu yang akan dihilangkan pada langkah tersebut.
Langkah yang lebih sedikit memerlukan kecepatan yang lebih besar dan tuntutan komputasi yang lebih rendah, dengan potensi pengorbanan dalam hal yang sangat detail; lebih banyak langkah biasanya meningkatkan akurasi, meskipun dengan mengorbankan kecepatan yang menurun dan biaya komputasi yang meningkat.
Meskipun model difusi standar dapat menghasilkan variasi gambar pelatihan berkualitas tinggi secara acak, tetapi sebagian besar penggunaan praktis model pembangkitan gambar memerlukan kontrol atas output model. Model difusi terpandu memungkinkan pengguna untuk mengondisikan gambar yang dihasilkan dengan panduan khusus.
Bentuk paling umum dari model difusi terpandu adalah model difusi teks-ke-gambar yang memungkinkan pengguna mengkondisikan output dengan perintah teks, seperti “a giraffe wearing a top hat.” Hal ini memerlukan pasangan model difusi dengan model bahasa besar (LLM) yang terpisah untuk menginterpretasikan permintaan teks, yang pertama kali diperkenalkan oleh Google dalam makalah “Photorealistic Text-to-Image Diffusion Models with Deep Language Understanding.”
Model difusi standar bertujuan untuk memprediksi fungsi skor tanpa syarat ∇xlogp(x): dengan kata lain, gradien logaritma kemungkinan bahwa gambar x yang dihasilkan oleh model p sesuai dengan data pelatihan x. Model difusi terpandu memperkenalkan kategori visual tertentu, y—misalnya, "jerapah"—dan memprediksi fungsi skor kondisional ∇xlogp(x|y): dengan kata lain, kemungkinan gambar x, mengingat bahwa hal tersebut harus sesuai dengan kategori y.
Metode untuk difusi terpandu dapat dipisahkan menjadi dua kategori:
Meskipun memiliki kemampuan canggih untuk menghasilkan gambar berkualitas tinggi, model difusi konvensional memiliki dua kelemahan penting: model ini lambat dan mahal secara komputasi. Kelemahan ini sangat berkurang dengan munculnya model difusi laten, dimulai dengan Stable Diffusion.
Premis di balik model difusi laten adalah sederhana, yang sekali lagi mengacu pada koneksi ke variational autoencoders (VAE). Alih-alih menerapkan proses difusi dalam ruang pikselberdimensi tinggi—yaitu, secara langsung pada gambar input—model ini dapat memproyeksikan input ke ruang laten berdimensi lebih rendah, kemudian menerapkan proses difusi di sana.
Pada intinya, model difusi laten menggunakan arsitektur autoencoder seperti VAE untuk melatih encoder untuk menghasilkan representasi laten z dari data input x. Representasi laten tersebut kemudian digunakan sebagai input untuk model difusi standar, biasanya menggunakan arsitektur U-Net. Karena model difusi bekerja dengan data berdimensi lebih rendah, outputnya kemudian dimasukkan ke dalam jaringan decoder untuk upsampling ke dalam ukuran gambar akhir yang diinginkan.
Latih, validasi, lakukan tuning, dan terapkan AI generatif, model dasar, dan kemampuan machine learning dengan IBM watsonx.ai, studio perusahaan generasi berikutnya untuk pembangun AI. Bangun aplikasi AI dalam waktu singkat, dengan sedikit data.
Gunakan AI di bisnis Anda dalam perpaduan antara keahlian AI terdepan di industri dari IBM dan portofolio solusi Anda.
Temukan kembali alur kerja dan operasi yang penting dengan menambahkan AI untuk memaksimalkan pengalaman, pengambilan keputusan secara real-time, dan nilai bisnis.
Pelajari bagaimana CEO dapat menyeimbangkan nilai generatif AI yang dapat diciptakan dengan investasi yang dibutuhkan dan risiko yang ditimbulkannya.
Belajar konsep dasar dan bangun keterampilan Anda dengan laboratorium praktis, kursus, proyek terpandu, uji coba, dan lainnya.
Pelajari cara menggabungkan AI generatif dan machine learning dengan percaya diri ke dalam bisnis Anda.
Ingin mendapatkan laba yang lebih baik atas investasi AI Anda? Pelajari bagaimana meningkatkan AI gen di berbagai bidang utama mendorong perubahan dengan membantu para pemikir terbaik Anda membangun dan memberikan solusi baru yang inovatif.
CATATAN: Semua tautan berada di luar ibm.com
[1] "Improved Denoising Diffusion Probabilistic Models", arXiv, 18 Februari 2021
[2] "Variational Diffusion Models," arXiv, terakhir direvisi 14 April 2023
IBM web domains
ibm.com, ibm.org, ibm-zcouncil.com, insights-on-business.com, jazz.net, mobilebusinessinsights.com, promontory.com, proveit.com, ptech.org, s81c.com, securityintelligence.com, skillsbuild.org, softlayer.com, storagecommunity.org, think-exchange.com, thoughtsoncloud.com, alphaevents.webcasts.com, ibm-cloud.github.io, ibmbigdatahub.com, bluemix.net, mybluemix.net, ibm.net, ibmcloud.com, galasa.dev, blueworkslive.com, swiss-quantum.ch, blueworkslive.com, cloudant.com, ibm.ie, ibm.fr, ibm.com.br, ibm.co, ibm.ca, community.watsonanalytics.com, datapower.com, skills.yourlearning.ibm.com, bluewolf.com, carbondesignsystem.com