Grafik komputasi dinamis (DCG) adalah bagaimana model pembelajaran mendalam direpresentasikan dalam PyTorch. Secara abstrak, grafik komputasi memetakan aliran data antara berbagai operasi dalam sistem matematika: dalam konteks pembelajaran mendalam, grafik ini pada dasarnya menerjemahkan kode jaringan neural ke dalam diagram alir yang mengindikasikan operasi yang dilakukan di setiap node dan ketergantungan antara berbagai lapisan di dalam jaringan, susunan langkah dan urutan yang mengubah data input menjadi data output.
Yang membedakan grafik komputasi dinamis (seperti yang digunakan di PyTorch) dengan grafik komputasi statis (seperti yang digunakan di TensorFlow) adalah bahwa DCG menunda spesifikasi komputasi dan hubungan yang tepat di antara keduanya hingga waktu berjalan. Dengan kata lain, sedangkan grafik komputasi statis membutuhkan arsitektur seluruh jaringan neural yang sepenuhnya ditentukan dan disusun agar dapat berjalan, DCG dapat diulang dan dimodifikasi dengan cepat.
Hal ini membuat DCG sangat berguna untuk debugging dan prototyping, karena bagian tertentu dari kode model dapat diubah atau dijalankan secara terpisah tanpa harus mengatur ulang seluruh model. Karena untuk model pembelajaran mendalam yang sangat besar yang digunakan untuk visi komputer canggih dan tugas NLP, dapat membuang-buang waktu dan sumber daya komputasi. Manfaat dari fleksibilitas ini meluas ke pelatihan model, karena grafik komputasi dinamis mudah dihasilkan secara terbalik selama propagasi balik.
Meskipun strukturnya yang tetap dapat memberdayakan efisiensi komputasi yang lebih besar, grafik komputasi statis memiliki fleksibilitas yang terbatas: misalnya, membangun model yang menggunakan jumlah lapisan yang bervariasi tergantung pada data input, seperti convolutional neural networks (CNN) yang dapat memproses gambar dengan ukuran berbeda-beda, sangat sulit dilakukan dengan grafik statis.