Análisis de la regresión

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística, el análisis de regresión es un proceso estadístico para la estimación de las relaciones entre variables. Incluye muchas técnicas para el modelado y análisis de diversas variables, cuando la atención se centra en la relación entre una variable dependiente y una o más variables independientes. Más específicamente, el análisis de regresión ayuda a entender cómo el valor típico de la variable dependiente (o 'Variable Criterio') cambia cuando cualquiera de las variables independientes es variada, mientras que se mantienen las otras variables independientes fijas. Más comúnmente, el análisis de regresión estima la esperanza condicional de la variable dependiente dadas las variables independientes - es decir, el valor promedio de la variable dependiente cuando se fijan las variables independientes. Con menor frecuencia, la atención se centra en un cuantil, u otro parámetro de localización de la distribución condicional de la variable dependiente dadas las variables independientes. En todos los casos, el objetivo es la estimación de una función de las variables independientes llamados la función de regresión. En el análisis de regresión, también es de interés para caracterizar la variación de la variable dependiente en torno a la función de regresión que puede ser descrito por una distribución de probabilidad.

El análisis de regresión es ampliamente utilizado para la predicción y previsión , donde su uso tiene superposición sustancial con el campo de aprendizaje automático. El análisis de regresión se utiliza también para comprender que entre las variables independientes están relacionadas con la variable dependiente, y explorar las formas de estas relaciones. En circunstancias limitadas, el análisis de regresión puede utilizarse para inferir relaciones causales entre las variables independientes y dependientes. Sin embargo, esto puede llevar a ilusiones o falsas relaciones, por lo que se recomienda precaución, [1] por ejemplo, la correlación no implica causalidad.

Se han desarrollado muchas técnicas para llevar a cabo análisis de regresión. Métodos familiares tales como regresión lineal y ordinaria de mínimos cuadrados de regresión son paramétrica , en que la función de regresión se define en términos de un número finito de desconocidos parámetros que se estiman a partir de los datos . regresión no paramétrica se refiere a las técnicas que permiten que la función de regresión mienta en un conjunto específico de funciones , que puede ser de dimensión infinita .

El desempeño de los métodos de análisis de regresión en la práctica depende de la forma del proceso de generación de datos , y cómo se relaciona con el método de regresión que se utiliza. Dado que la forma verdadera del proceso de generación de datos generalmente no se conoce, el análisis de regresión depende a menudo hasta cierto punto de hacer suposiciones acerca de este proceso. Estos supuestos son a veces comprobable si una cantidad suficiente de datos está disponible. Los modelos de regresión para la predicción a menudo son útiles incluso cuando los supuestos son violados moderadamente, aunque pueden no funcionar de manera óptima. Sin embargo, en muchas aplicaciones, sobre todo con pequeños efectos o las cuestiones de causalidad sobre la base de los datos de observación , métodos de regresión pueden dar resultados engañosos.[2] [3]

Modelos de regresión[editar]

Regresión lineal[editar]

  • Regresión lineal simple

Dadas dos variables (Y: variable dependiente; X: independiente) se trata de encontrar una función simple (lineal) de X que nos permita aproximar Y mediante: Ŷ = a + bX

a (ordenada en el origen, constante)
b (pendiente de la recta)
A la cantidad e=Y-Ŷ se le denomina residuo o error residual.

Así, en el ejemplo de Pearson: Ŷ = 85 cm + 0,5X

Donde Ŷ es la altura predicha del hijo y X la altura del padre: En media, el hijo gana 0,5 cm por cada cm del padre.
  • Regresión lineal múltiple

Regresión no lineal[editar]

Véase también[editar]

Referencias[editar]

  1. «Illusions in Regression Analysis». International Journal of Forecasting (forthcoming) 28 (3):  pp. 689. 2012. doi:10.1016/j.ijforecast.2012.02.001. http://upenn.academia.edu/JArmstrong/Papers/1162346/Illusions_in_Regression_Analysis. 
  2. David A. Freedman, Statistical Models: Theory and Practice, Cambridge University Press (2005)
  3. R. Dennis Cook; Sanford Weisberg Criticism and Influence Analysis in Regression, Sociological Methodology, Vol. 13. (1982), pp. 313–361

Enlaces externos[editar]