A regressão Lasso (também conhecida como regularização L1) é uma forma de regularização para modelos de regressão linear . A regularização é um método estatístico para reduzir erros causados por overfitting nos dados de treinamento. Essa abordagem pode ser representada pela seguinte fórmula:
w-hat = argminw MSE(W ) + ||w||1
Os conceitos por trás da técnica de lasso podem ser rastreados até um artigo de pesquisa em geofísica (link externo a ibm.com) de 1986, por Santosa e Symes1, que utilizava a penalização L1 para coeficientes. No entanto, em 1996, o estatístico Robert Tibshirani desenvolveu e popularizou independentemente o termo2 (link externo a ibm.com) "lasso", baseado no trabalho de Breiman sobre o garrote não negativo3 (link externo a ibm.com).
Lasso significa Operador de Seleção e Encolhimento Mínimo Absoluto (Least Absolute Shrinkage and Selection Operator). É usado com frequência no aprendizado de máquina para lidar com dados de alta dimensão, pois facilita a seleção automática de funcionalidades com sua aplicação. Ele faz isso adicionando um termo de penalidade à soma residual de quadrados (RSS), que é então multiplicada pelo parâmetro de regularização (lambda ou λ). Esse parâmetro de regularização controla a quantidade de regularização aplicada. Valores maiores de lambda aumentam a penalidade, reduzindo mais coeficientes para zero; isso reduz a importância de (ou elimina completamente) algumas das funcionalidades do modelo, resultando na seleção automática de funcionalidades. Por outro lado, valores menores de lambda reduzem o efeito da penalidade, retendo mais funcionalidades no modelo.
Essa penalidade promove a parcimônia dentro do modelo, o que pode ajudar a evitar problemas de multicolinearidade e overfitting nos conjuntos de dados. A multicolinearidade ocorre quando duas ou mais variáveis independentes estão altamente correlacionadas entre si, o que pode ser problemático para modelagem causal. Os modelos de overfitting terão baixa generalização para novos dados, diminuindo seu valor. Ao reduzir coeficientes de regressão a zero, a regressão Lasso pode eliminar efetivamente variáveis independentes do modelo, contornando esses potenciais problemas no processo de modelagem. A parcimônia do modelo também pode melhorar sua interpretabilidade em comparação com outras técnicas de regularização, como a regressão ridge (também conhecida como regularização L2).
Nota: este artigo foca na regularização de modelos de regressão linear, mas vale notar que a regressão Lasso também pode ser aplicada em modelos de regressão logística.