Setiap koneksi neuron-ke-neuron yang sangat banyak ini dikalikan dengan bobot yang unik, yang memperkuat (atau mengurangi) pengaruh setiap koneksi. Input yang diberikan untuk fungsi aktivasi setiap neuron dapat dipahami sebagai jumlah tertimbang dari output setiap neuron di lapisan sebelumnya. Biasanya ada juga istilah bias unik yang ditambahkan ke setiap fungsi aktivasi, yang berfungsi mirip dengan istilah bias dari fungsi regresi umum.
Selama pelatihan, neural networks “belajar” melalui penyesuaian pada masing-masing parameter bobot dan bias ini yang menghasilkan output lebih akurat. Ini adalah parameter model: misalnya ketika Anda membaca tentang model bahasa besar (LLM) dengan 8 miliar "parameter", jumlah tersebut mencerminkan setiap koneksi antara neuron tertimbang dan bias khusus neuron dalam neural networks model.
Lapisan perantara, yang disebut lapisan tersembunyi jaringan, adalah tempat sebagian besar pembelajaran terjadi. Penyertaan beberapa lapisan tersembunyi yang membedakan model pembelajaran mendalam dari neural network "tidak mendalam", seperti mesin Boltzmann terbatas (RBN) atau perceptron multilapisan standar (MLP). Kehadiran beberapa lapisan tersembunyi memungkinkan model pembelajaran mendalam untuk mempelajari fitur hierarkis data yang kompleks, dengan lapisan sebelumnya mengidentifikasi pola yang lebih luas dan lapisan yang lebih dalam mengidentifikasi pola yang lebih mendetail.
Untuk melakukan inferensi, jaringan menyelesaikan satu forward pass: lapisan input menerima data input, biasanya dalam bentuk penanaman vektor, dengan setiap neuron input memproses tiap fitur dari vektor input. Sebagai contoh, sebuah model yang bekerja dengan gambar skala abu-abu 10x10 piksel biasanya akan memiliki 100 neuron di lapisan inputnya, dengan setiap neuron input berhubungan dengan satu piksel. Jadi neural networks biasanya memerlukan vektor input untuk diperbaiki pada ukuran tertentu, meskipun teknik prapemrosesan seperti pengumpulan atau normalisasi dapat memberikan fleksibilitas sehubungan dengan ukuran data input asli itu sendiri.
Data semakin diubah dan diteruskan ke node dari setiap lapisan berikutnya hingga lapisan akhir. Fungsi aktivasi neuron di lapisan output menghitung prediksi output akhir jaringan. Misalnya, setiap node output dari model klasifikasi mendalam dapat melakukan fungsi softmax yang pada dasarnya mengambil input numerik dan menskalakannya ke probabilitas antara 0-1 bahwa input tersebut termasuk dalam kategori klasifikasi potensial. Model kemudian akan menampilkan kategori yang sesuai dengan node mana pun yang menghasilkan output tertinggi.