Paradoja de Freedman

De Wikipedia, la enciclopedia libre

En estadística, la paradoja de Freedman,[1]​ en honor a David Freedman, describe un problema en la selección de un modelo mediante el cual las variables de predicción que no tienen ningún poder explicativo pueden aparecer artificialmente importantes. Freedman demostró (a través de la simulación y el cálculo asintótico) que esta es una ocurrencia común cuando el número de variables es similar al número de puntos de datos. Recientemente, nuevos avances en la teoría de la información se han desarrollado en un intento de reducir este problema,[2]​ además de generar un sesgo de selección de modelos,[3]​ c los estimadores de variables de predicción que tienen una relación débil con la variable de respuesta son sesgados.

Referencias[editar]

  1. Freedman, D. A. (1983) "A note on screening regression equations." The American Statistician, 37, 152–155.
  2. Lukacs, P. M., Burnham, K. P. & Anderson, D. R. (2010) "Model selection bias and Freedman's paradox." Annals of the Institute of Statistical Mathematics, 62(1), 117–125 doi 10.1007/s10463-009-0234-4
  3. Burnham, K. P., & Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical-Theoretic Approach, 2nd ed. Springer-Verlag.