Artículo bueno

Regresión lineal

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
Ejemplo de una regresión lineal con una variable dependiente y una variable independiente.

En estadística, la regresión lineal o ajuste lineal es un modelo matemático usado para aproximar la relación de dependencia entre una variable dependiente , variables independientes con y un término aleatorio . Este modelo puede ser expresado como:

donde:

  • es la variable dependiente o variable de respuesta.
  • son las variables explicativas, independientes o regresoras.
  • son los parámetros del modelo, miden la influencia que las variables explicativas tienen sobre el regrediendo.

el término es la intersección o término "constante", las son los parámetros respectivos a cada variable independiente, y es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.

Historia[editar]

La primera forma de regresión lineal documentada fue el método de los mínimos cuadrados que fue publicada por Legendre en 1805, Gauss publicó un trabajo en donde desarrollaba de manera más profunda el método de los mínimos cuadrados,[1]​ y en dónde se incluía una versión del teorema de Gauss-Márkov.

El término regresión se utilizó por primera vez en el estudio de variables antropométricas: al comparar la estatura de padres e hijos, donde resultó que los hijos cuyos padres tenían una estatura muy superior al valor medio, tendían a igualarse a este, mientras que aquellos cuyos padres eran muy bajos tendían a reducir su diferencia respecto a la estatura media; es decir, "regresaban" al promedio.[2]​ La constatación empírica de esta propiedad se vio reforzada más tarde con la justificación teórica de ese fenómeno.

El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean modelos basados en cualquier clase de función matemática. Los modelos lineales son una explicación simplificada de la realidad, mucho más ágiles y con un soporte teórico mucho más extenso por parte de la matemática y la estadística.

Pero bien, como se ha dicho, se puede usar el término lineal para distinguir modelos basados en cualquier clase de aplicación.

El modelo de regresión lineal[editar]

El modelo lineal relaciona la variable dependiente con variables regresoras con o cualquier transformación de éstas que generen un hiperplano de parámetros desconocidos:

donde es una variable aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo, con una sola variable explícita, el hiperplano es una recta:

El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos , de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones o una muestra proveniente de este modelo. En una observación -ésima cualquiera, se registra el comportamiento simultáneo de la variable dependiente y las variables explícitas (las perturbaciones aleatorias se suponen no observables).

Los valores escogidos como estimadores de los parámetros , son los coeficientes de regresión sin que se pueda garantizar que coincidan con parámetros reales del proceso generador. Por tanto, en

Los valores son por su parte estimaciones o errores de la perturbación aleatoria.

Hipótesis del modelo de regresión lineal clásico[editar]

  1. Media cero: . Para cada valor de la perturbación tomará distintos valores de forma aleatoria, pero no tomará sistemáticamente valores positivos o negativos, sino que se supone tomará algunos valores mayores que cero y otros menores que cero, de tal forma que su valor esperado sea cero.
  2. Homocedasticidad: para todo . Todos los términos de la perturbación tienen la misma varianza que es desconocida. La dispersión de cada en torno a su valor esperado es siempre la misma.
  3. Incorrelación o independencia: para todo . Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no están correlacionadas. Esto implica que el valor de la perturbación para cualquier observación muestral no viene influenciado por los valores de las perturbaciones correspondientes a otras observaciones muestrales.
  4. Regresores estocásticos. Los sistemas de ecuaciones simultáneas describen el comportamiento de un vector de variables endógenas en función de un vector de variables exógenas. Los regresores estocásticos surgen del hecho de que la variable endógena de una ecuación puede entrar en otra como variable explicativa.
  5. Independencia lineal. No existen relaciones lineales exactas entre los regresores.
  6. . Suponemos que no existen errores de especificación en el modelo, ni errores de medida en las variables explicativas.
  7. Normalidad de las perturbaciones:

Tipos de modelos de regresión lineal[editar]

Existen diferentes tipos de regresión lineal que se clasifican de acuerdo a sus parámetros:

Regresión lineal simple[editar]

Este modelo sólo está conformado por dos variables estadísticas llamadas y . Para la regresión lineal simple, se asume que y se relacionan mediante la relación funcional:[3]

donde son constantes desconocidas llamadas coeficientes de regresión.

Estimación de los parámetros[editar]

Dado que los parámetros y son constantes desconocidas, estas deben estimarse mediante los datos de la muestra, supóngase que se tiene datos , se estimarán los parámetros utilizando el método de mínimos cuadrados.

Se estiman y tal que la suma de los cuadrados de las diferencias entre las observaciones y la recta de regresión sea mínima, esto es, buscamos minimizar la función error cuadrático dada por

La función de error cuadrático alcanza un mínimo en el punto tal que

entonces derivando respecto a y , evaluando en y e igualando a cero, obtenemos el siguiente sistema de ecuaciones

estas dos ecuaciones son conocidas como ecuaciones normales la solución de dicho sistema de ecuaciones está dada por:[3]

La interpretación del parámetro medio es que un incremento en Xi de una unidad, Yi incrementará en . Luego el modelo ajustado de regresión lineal simple es

Regresión lineal múltiple[editar]

La regresión lineal permite analizar la relación entre dos o más variables a través de ecuaciones, lo que se denomina regresión múltiple o regresión lineal múltiple.

Constantemente en la práctica de la investigación estadística, se encuentran variables que de alguna manera están relacionadas entre sí, por lo que es posible que una de las variables puedan relacionarse matemáticamente en función de otra u otras variables.

Este modelo cuenta con varias variables regresoras, por lo que cuenta con varios parámetros, para la regresión lineal múltiple, se asume que la variable de respuesta se relaciona con las variables regresoras mediante la relación funcional:[4]

donde los parámetros son llamados coeficientes del modelo de regresión múltiple.

Supongamos que se tiene una muestra de tamaño dada por con donde denota el -ésimo valor observado en el regresor y denota la -ésima observación de entonces el modelo toma la forma

donde es el error asociado a la -ésima medición del valor y sigue los supuestos usuales de modo que (media cero, varianza constante e igual a y con ).

Estimación de los parámetros[editar]

Para estimar los parámetros del modelo, se puede utilizar el método de mínimos cuadrados, en este caso, la función de error cuadrático está dada por

la cual deseamos minimizar.

Los estimadores por mínimos cuadrados denotados por deben satisfacer

para . Resolver este sistema con ecuaciones de forma analítica es complicado por lo que se recurre a escribir el modelo de regresión lineal múltiple

en forma matricial como

siendo

donde y .

En forma matricial, la función de error cuadrático puede ser escrita como

Los estimadores por mínimos cuadrados deben satisfacer

donde denota el vector que contiene a los estimadores y denota un vector con ceros.

Puede verificarse que la condición anterior se reduce a

Si la matriz inversa existe entonces el estimador por mínimos cuadrados está dado por

Por lo que el modelo ajustado de regresión está dado por

Rectas de regresión[editar]

Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos (o también llamado diagrama de dispersión) generada por una distribución conjunta. Matemáticamente, son posibles dos rectas de máximo ajuste:[5]

  • La recta de regresión de sobre :
  • La recta de regresión de sobre :

La correlación ("r") de las rectas determinará la calidad del ajuste. Si r es cercano o igual a 1, el ajuste será bueno y las predicciones realizadas a partir del modelo obtenido serán muy fiables (el modelo obtenido resulta verdaderamente representativo); si r es cercano o igual a 0, se tratará de un ajuste malo en el que las predicciones que se realicen a partir del modelo obtenido no serán fiables (el modelo obtenido no resulta representativo de la realidad). Ambas rectas de regresión se intersecan en un punto llamado centro de gravedad de la distribución.

Aplicaciones de la regresión lineal[editar]

Líneas de tendencia[editar]

Una línea de tendencia representa una tendencia en una serie de datos obtenidos a través de un largo período. Este tipo de líneas puede decirnos si un conjunto de datos en particular (como por ejemplo, el PIB, el precio del petróleo o el valor de las acciones) han aumentado o decrementado en un determinado período.[6]​ Se puede dibujar una línea de tendencia a simple vista fácilmente a partir de un grupo de puntos, pero su posición y pendiente se calcula de manera más precisa utilizando técnicas estadísticas como las regresiones lineales. Las líneas de tendencia son generalmente líneas rectas, aunque algunas variaciones utilizan polinomios de mayor grado dependiendo de la curvatura deseada en la línea.

Medicina[editar]

En medicina, las primeras evidencias relacionando la mortalidad con el fumar tabaco[7]​ vinieron de estudios que utilizaban la regresión lineal. Los investigadores incluyen una gran cantidad de variables en su análisis de regresión en un esfuerzo por eliminar factores que pudieran producir correlaciones espurias.

En el caso del tabaquismo, los investigadores incluyeron el estado socioeconómico para asegurarse que los efectos de mortalidad por tabaquismo no sean un efecto de su educación o posición económica. No obstante, es imposible incluir todas las variables posibles en un estudio de regresión.[8][9]​ En el ejemplo del tabaquismo, un hipotético gen podría aumentar la mortalidad y aumentar la propensión a adquirir enfermedades relacionadas con el consumo de tabaco. Por esta razón, en la actualidad las pruebas controladas aleatorias son consideradas mucho más confiables que los análisis de regresión.

Informática[editar]

Ejemplo en JavaScript para regresión lineal:

/**
 * Linear regression in Javascript
 * (c) 2016, Antonio Villamarin
 * License GPL
 */

var
      xarray = [
            1, 2, 3, 4, 5
      ],
      yarray = [
            5, 5, 5, 6.8, 9
      ],
      x = y = xy = xx = a = b = resultado = 0,
      cantidad = xarray.length,
      futuro = 100;
      
for (i = 0; i < cantidad; i++) {
      console.log('Dado ' + xarray[i] + ' => ' + yarray[i]);
      x += xarray[i];
      y += yarray[i];
      xy += xarray[i]*yarray[i];
      xx += xarray[i]*xarray[i];
}

b = ((cantidad * xy) - (x * y)) / ((cantidad * xx) - (x * x));

a = (y - (b * x)) / cantidad;

if(b != 0) {
      console.log('Dado ' + futuro + ' => ' + Math.round(a + (b * futuro)));
} else {
      console.log('Dado ' + futuro + ' => Infinito');
}

Ejemplo de una rutina que utiliza una recta de regresión lineal para proyectar un valor futuro: Código escrito en PHP

<?php
//Licencia: GNU/GPL
$xarray=array(1, 2, 3, 4, 5 );	//Dias
$yarray=array(5, 5, 5, 6.8, 9); //Porcentaje de ejecucion
$pm=100; //Valor futuro
$x2=0;
$y=0;
$x=0;
$xy=0;
$cantidad=count($xarray);
for($i=0;$i<$cantidad;$i++){
      //Tabla de datos
      print ($xarray[$i]." ---- ".$yarray[$i]."<br>");
      //Calculo de terminos
      $x2 += $xarray[$i]*$xarray[$i];
      $y  += $yarray[$i];
      $x  += $xarray[$i];
      $xy += $xarray[$i]*$yarray[$i];
}
//Coeficiente parcial de regresion
$b=($cantidad*$xy-$x*$y)/($cantidad*$x2-$x*$x);
//Calculo del intercepto
$a=($y-$b*$x)/$cantidad;
//Recta tendencial
//y=a+bx
//Proyeccion en dias para un 100% de la ejecucion:
if ($b!=0) $dias_proyectados=($pm-$a)/$b;
else $dias_proyectados=999999; //Infinitos
$dp=round($dias_proyectados,0);
if($dp<=$pm) 	print $dp."---> Culmina antes de los $pm dias <br>";
if($dp >$pm) 	print $dp ."---> ALARMA: No culmina antes de los $pm dias <br>";
?>


Es también posible entrenar un regresor lineal en Python, utilizando la librería sklearn[10]​:

from sklearn.linear_model import LinearRegression
# Se cargan unos datos para entrenar el modelo
# X = ...
# Y = ...

# Regresor lineal
modelo = LinearRegression()
# Se entrena el modelo con los datos
modelo.fit(X, Y)

# Una vez ha sido entrenado, se puede calcular el resultado
# para una nueva entrada
Y_prediccion = modelo.predict(X)

Véase también[editar]

Referencias[editar]

  1. C.F. Gauss. Theoria combinationis observationum erroribus minimis obnoxiae. (1821/1823)
  2. Introduction to linear regression Curvefit.com (en inglés)
  3. a b "Fórmulas", Probabilidad y Estadística. Cs. Básicas. U.D.B. Matemática. Universidad Tecnológica Nacional, Facultad Regional Buenos Aires. Editorial CEIT-FRBA. (Código BM2BT2)
  4. Técnicas de regresión: Regresión Lineal Múltiple. Pértega Díaz, S., Pita Fernández, S. Unidad de Epidemiología Clínica y Bioestadística. Complejo Hospitalario de La Coruña (España)
  5. Apunte sobre Rectas de regresión. Ministerio de Educación y Ciencia. Gobierno de España.
  6. Utilización de las líneas de tendencia, Paritech (en inglés)
  7. Doll, R., Wheatley, K., Gray, R. et al. «Mortality in relation to smoking: 40 years' observations on male British doctors .» BMJ 1994;309:901-911 (8 de octubre).
  8. "Environmental Tobacco Smoke and Adult Asthma" Division of Pulmonary and Critical Care Medicine, Division of Occupational and Environmental Medicine; Department of Medicine, Institute for Health Policy Studies; and Department of Epidemiology and Biostatistics, Universidad de California, San Francisco, California. (en inglés)
  9. Regalado-Pineda, Justino; Alejandro Gómez-Gómez; Javier Ramírez-Acosta; Juan Carlos Vázquez-García. «Efecto del tabaquismo, los síntomas respiratorios y el asma sobre la espirometría de adultos de la Ciudad de México.»
  10. Cursos Python. «Machine Learning para principiantes, regresión lineal en sklearn». Cursos Python. Consultado el 13 de mayo de 2020. 

Bibliografía[editar]

  • Canavos, George C.; Probabilidad y Estadística. Aplicaciones y Métodos. McGraw-Hill. México. ISBN 9684518560.
  • Devore, Jay L.; Probabilidad y Estadística para Ingeniería y Ciencias. International Thomson Editores. México. ISBN 9706864571.
  • Walpole, Ronald E.; Raymond, H.; Myers, Sharon L.; Probabilidad y Estadística para Ingenieros. Prentice-Hall Hispanoamericana, S.A. México. ISBN 9701702646.

Enlaces externos[editar]