Peluruhan bobot merupakan bentuk regularisasi lain yang digunakan untuk Neural Networks dalam. Ini mengurangi jumlah bobot jaringan kuadrat melalui parameter regularisasi, mirip dengan regularisasi L2 dalam model linier.10 Namun, ketika digunakan dalam neural networks, pengurangan ini memiliki efek yang mirip dengan regularisasi L1: bobot neuron tertentu berkurang hingga nol.11 Hal ini secara efektif menghilangkan node dari neural networks, mengurangi kompleksitas neural networks melalui kelangkaan.12
Peluruhan bobot mungkin tampak di permukaan mirip dengan dropout di neural networks, tetapi kedua teknik tersebut berbeda. Salah satu perbedaan utamanya adalah, pada dropout, nilai penalti tumbuh secara eksponensial dalam kedalaman jaringan berdasarkan kasus, sedangkan nilai penalti peluruhan bobot tumbuh secara linear. Beberapa percaya ini memungkinkan dropout untuk memberikan penalti kompleksitas jaringan yang lebih berarti daripada peluruhan bobot.13
Banyak artikel dan tutorial online salah mencampuradukkan regularisasi L2 dan peluruhan bobot. Bahkan penelitian akademis tidak konsisten—beberapa membedakan antara L2 dan peluruhan bobot,14 beberapa menyamakannya,15 sementara yang lain tidak konsisten dalam menggambarkan hubungan di antara keduanya.16 Mengatasi ketidakkonsistenan dalam terminologi tersebut merupakan hal yang dibutuhkan tetapi terabaikan untuk penelitian akademis di masa depan.