Diferencia entre revisiones de «Paradoja de Freedman»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Ivanpares (discusión · contribs.)
Página creada con «En el análisis estadístico, la '''paradoja de Freedman''', [1] el nombre de David Freedman , describe un problema en la selección del modelo mediante el cual las variabl...»
 
Ivanpares (discusión · contribs.)
Sin resumen de edición
Línea 1: Línea 1:
En el análisis estadístico, la '''paradoja de Freedman''', [1] el nombre de David Freedman , describe un problema en la selección del modelo mediante el cual las variables de predicción con ningún poder explicativo pueden aparecer artificialmente importante. Freedman demostró (a través de la simulación y el cálculo asintótica) que esta es una ocurrencia común cuando el número de variables es similar al número de puntos de datos. Recientemente, nuevos teoría de la información estimadores se han desarrollado en un intento de reducir este problema, [2] , además de la cuestión de acompañamiento de sesgo de selección de modelos, [3] por el que los estimadores de variables de predicción que tienen una relación débil con la variable de respuesta son sesgada.
En el análisis estadístico, la '''paradoja de Freedman''',<ref>Freedman, D. A. (1983) "A note on screening [[regression analysis|regression]] equations." ''[[The American Statistician]]'', '''37''', 152&ndash;155.</ref> el nombre de David Freedman , describe un problema en la selección del modelo mediante el cual las variables de predicción con ningún poder explicativo pueden aparecer artificialmente importante. Freedman demostró (a través de la simulación y el cálculo asintótica) que esta es una ocurrencia común cuando el número de variables es similar al número de puntos de datos. Recientemente, nuevos teoría de la información estimadores se han desarrollado en un intento de reducir este problema,<ref>Lukacs, P. M., Burnham, K. P. & Anderson, D. R. (2010) "Model selection bias and Freedman's paradox." ''Annals of the Institute of Statistical Mathematics'', 62(1), 117&ndash;125 {{doi|10.1007/s10463-009-0234-4}}</ref> además de la cuestión de acompañamiento de sesgo de selección de modelos,<ref>Burnham, K. P., & Anderson, D. R. (2002). ''Model Selection and Multimodel Inference: A Practical-Theoretic Approach,'' 2nd ed. Springer-Verlag.</ref> por el que los estimadores de variables de predicción que tienen una relación débil con la variable de respuesta son sesgada.

==Referencias==
{{Reflist}}

Revisión del 04:04 16 ago 2014

En el análisis estadístico, la paradoja de Freedman,[1]​ el nombre de David Freedman , describe un problema en la selección del modelo mediante el cual las variables de predicción con ningún poder explicativo pueden aparecer artificialmente importante. Freedman demostró (a través de la simulación y el cálculo asintótica) que esta es una ocurrencia común cuando el número de variables es similar al número de puntos de datos. Recientemente, nuevos teoría de la información estimadores se han desarrollado en un intento de reducir este problema,[2]​ además de la cuestión de acompañamiento de sesgo de selección de modelos,[3]​ por el que los estimadores de variables de predicción que tienen una relación débil con la variable de respuesta son sesgada.

Referencias

  1. Freedman, D. A. (1983) "A note on screening regression equations." The American Statistician, 37, 152–155.
  2. Lukacs, P. M., Burnham, K. P. & Anderson, D. R. (2010) "Model selection bias and Freedman's paradox." Annals of the Institute of Statistical Mathematics, 62(1), 117–125 doi 10.1007/s10463-009-0234-4
  3. Burnham, K. P., & Anderson, D. R. (2002). Model Selection and Multimodel Inference: A Practical-Theoretic Approach, 2nd ed. Springer-Verlag.