Bootstrapping (estadística)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

El bootstrapping (o bootstrap) es un método de remuestreo propuesto por Bradley Efron en 1979. Se utiliza para aproximar la distribución en el muestreo de un estadístico. Se usa frecuentemente para aproximar el sesgo o la varianza de un análisis estadístico, así como para construir intervalos de confianza o realizar contrastes de hipótesis sobre parámetros de interés. En la mayor parte de los casos no pueden obtenerse expresiones cerradas para las aproximaciones bootstrap y por lo tanto es necesario obtener remuestras en un ordenador para poner a prueba el método. La enorme potencia de cálculo de los ordenadores actuales facilita considerablemente la aplicabilidad de este método tan costoso computacionalmente.

Distribuciones Estadísticas obtenidas del conjunto de datos "velocidad de la luz" (speed of light) de Simon Newcomb; generados a través de bootstrapping: en el resultado final, la desviación típica y la desviación mediana absoluta (ambas medidas de dispersión) difieren en sus distribuciones muestrales.

Historia[editar]

El bootstrap fue publicado por Bradley Efron en Bootstrap methods: another look at the jackknife (1979),[1][2][3]​ inspirado en trabajos anteriores sobre el jackknife.[4][5][6]​ Una mejora de las estimaciones de la varianza se desarrollaron más tarde.[7][8]​ Una extensión bayesiana se desarrolló en 1981.[9]​El bootstrap bias-corregido y acelerado (BCa) fue desarrollado por Efron en 1987,[10]​ y el procedimiento de ABC en 1992.[11]

Enfoque[editar]

La idea básica de bootstrap es que la inferencia sobre una población a partir de datos de muestra, (muestra → población), puede ser modelada mediante un nuevo muestreo de los datos de la muestra y realizando la inferencia sobre una muestra a partir de datos reamosturados. Como la población es desconocida, el verdadero error en una muestra estadística contra su valor poblacional es desconocido. En las re-muestras de bootstrap, la 'población' es de hecho la muestra, y esto se conoce; por lo tanto, se puede medir la calidad de la inferencia de la muestra "verdadera" a partir de datos remuestreados, (muestra re-muestreada).

Referencias[editar]

  1. Notes for Earliest Known Uses of Some of the Words of Mathematics: Bootstrap (John Aldrich)
  2. Earliest Known Uses of Some of the Words of Mathematics (B) (Jeff Miller)
  3. Efron, B. (1979). «Bootstrap methods: Another look at the jackknife». The Annals of Statistics 7 (1): 1-26. doi:10.1214/aos/1176344552. 
  4. Quenouille M (1949) Approximate tests of correlation in time-series. J Roy Statist Soc Ser B 11 68–84
  5. Tukey J (1958) Bias and confidence in not-quite large samples (abstract). Ann Math Statist 29 614
  6. Jaeckel L (1972) The infinitesimal jackknife. Memorandum MM72-1215-11, Bell Lab
  7. Bickel P, Freeman D (1981) Some asymptotic theory for the bootstrap. Ann Statist 9 1196–1217
  8. Singh K (1981) On the asymptotic accuracy of Efron’s bootstrap. Ann Statist 9 1187–1195
  9. Rubin D (1981). The Bayesian bootstrap. Ann Statist 9 130–134
  10. Efron, B. (1987). «Better Bootstrap Confidence Intervals». Journal of the American Statistical Association (Journal of the American Statistical Association, Vol. 82, No. 397) 82 (397): 171-185. JSTOR 2289144. doi:10.2307/2289144. 
  11. Diciccio T, Efron B (1992) More accurate confidence intervals in exponential families. Biometrika 79 231–245