LASSO (estadística)

De Wikipedia, la enciclopedia libre

En Estadística y Aprendizaje Automático, Lasso (least absolute shrinkage and selection operator, por sus siglas en inglés), es un método de análisis de regresión que realiza selección de variables y regularización para mejorar la exactitud e interpretabilidad del modelo estadístico producido por este. Fue introducido por Robert Tibshirani en 1996 basado en el trabajo de Leo Breiman sobre el Garrote No-Negativo.[1][2]​ Lasso fue formulado originalmente para el método de mínimos cuadrados y este caso simple revela una cantidad substancial acerca del comportamiento del estimador, incluyendo su relación con ridge regression y selección de subconjuntos (de variables) y la conexión entre los coeficientes estimados con lasso y el llamado 'soft thresholding'. También revela que (al igual que la Regresión Lineal estándar) los coeficientes estimados no necesariamente son únicos si las variables independientes son colineales.

Motivación[editar]

Robert Tibshirani introdujo lasso para mejorar la exactitud de la predicciones e interpretabilidad de los modelo estadísticos de regresión al alterar el proceso de construcción del modelo al seleccionar solamente un subconjunto de (y no todas) las variables provistas para usar en el modelo final.[1]​ Está basado en el Garrote no negativo de Breiman, que tiene propósitos similares, pero funciona de manera un poco diferente.[2]

Antes de lasso, el método más usado para decidir qué variables incluir en un modelo era stepwise selection, que sólo mejora la exactitud de las predicciones en ciertos casos, como cuando sólo unas pocas variables tienen una relación fuerte con la variable independiente. Sin embargo, en otros casos, puede agravar los errores de predicción. Además, en ese momento, ridge regression era la técnica más popular para mejorar la exactitud de las predicciones. Ridge regression mejora los errores de predicción al reducir en tamaño los coeficientes de regresión que sean demasiado grandes para reducir el sobreajuste (overfitting), pero no realiza selección de variables y por tanto no produce un modelo más interpretable.

Forma Básica[editar]

Considere una clúster de N casos (observaciones), cada una con p variable y una sola variable independente. Sea la variable independiente y el vector con variables para el caso . Entonces, el objetivo del Lasso es resolver

[1]

Aquí es el coeficiente constante, es el vector de coeficientes y es un parámetro pre especificado que determine la cantidad de regularization. Sea la matriz de variables, de manera que y es la 'i-esima fila de , podemos escribir de forma más compacta el problema como:

donde es la p-norma en dimensiones finitas ( Espacios Lp).

Denotando la media escalar de los puntos como y la media de las variables de salida como , el estimado para es , de modo que:

y así es estándar trabajar con variables centralizadas. Adicionalmente las variables son estandarizadas para que la solución no sea afectada por la escala de las mediciones.

Puede ser útil rescribir el problema

en su forma Lagrangiana.

donde la relación exacta entre y depende de los datos.

Véase también[editar]

Referencias[editar]

  1. a b c Tibshirani, Robert. 1996. “Regression Shrinkage and Selection via the lasso”. Journal of the Royal Statistical Society. Series B (methodological) 58 (1). Wiley: 267–88. http://www.jstor.org/stable/2346178.
  2. a b Breiman, Leo. 1995. “Better Subset Regression Using the Nonnegative Garrote”. Technometrics 37 (4). Taylor & Francis, Ltd.: 373–84. doi:10.2307/1269730.