La regressione lasso, nota anche come regolarizzazione L1, è una forma di regolarizzazione per i modelli di regressione lineare. La regolarizzazione è un metodo statistico per ridurre gli errori causati dall'overfitting dei dati di addestramento. Questo approccio può essere rappresentato con questa formula:
w-hat = argminw MSE(W ) + ||w||1
I concetti alla base della tecnica Lasso possono essere ricondotti a un documento di ricerca geofisica del 1986 (link esterno a ibm.com) di Santosa e Simes1, che utilizzava la penalità L1 per i coefficienti. Tuttavia, nel 1996 lo statistico Robert Tibshirani sviluppò autonomamente e rese popolare il termine2 (link esterno a ibm.com), "lasso", basato sull'opera di "nonnegative garrote" di Breiman3 (link esterno a ibm.com).
Lasso è l'acronimo di Least Absolute Shrinkage and Selection Operator. Viene spesso utilizzato nell'apprendimento automatico per gestire dati ad alta dimensione in quanto facilita la selezione automatica delle funzionalità con la sua applicazione. Lo fa aggiungendo un termine di penalità alla somma residua dei quadrati (RSS), che viene poi moltiplicato per il parametro di regolarizzazione (lambda o λ). Questo parametro di regolarizzazione controlla la quantità di regolarizzazione applicata. Valori più alti di lambda aumentano la penalità, riducendo maggiormente i coefficienti verso lo zero, il che a sua volta riduce l'importanza di alcune funzioni dal modello (o le elimina del tutto), con conseguente selezione automatica delle funzioni. Al contrario, valori più bassi di lambda riducono l'effetto della penalità, mantenendo più funzioni all'interno del modello.
Questa penalità promuove la scarsità all'interno del modello, il che può aiutare a evitare problemi di multicollinearità e di overfitting all'interno dei set di dati. La multicollinearità si verifica quando due o più variabili indipendenti sono altamente correlate tra loro, il che può essere problematico per la modellazione causale. I modelli overfit si generalizzeranno male ai nuovi dati, diminuendone del tutto il valore. Riducendo i coefficienti di regressione a zero, la regressione lasso può eliminare efficacemente le variabili indipendenti dal modello, aggirando questi potenziali problemi all'interno del processo di modellazione. La scarsità del modello può anche migliorarne l'interpretabilità rispetto ad altre tecniche di regolarizzazione come la regressione ridge (nota anche come regolarizzazione L2).
Nota, questo articolo si concentra sulla regolarizzazione dei modelli di regressione lineare, ma vale la pena notare che la regressione lasso può essere applicata anche nella regressione logistica.