Bootstrapping (estadística)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

El bootstrapping (o bootstrap) es un método de remuestreo propuesto por Bradley Efron en 1979. Se utiliza para aproximar la distribución en el muestreo de un estadístico. Se usa frecuentemente para aproximar el sesgo o la varianza de un análisis estadístico, así como para construir intervalos de confianza o realizar contrastes de hipótesis sobre parámetros de interés. En la mayor parte de los casos no pueden obtenerse expresiones cerradas para las aproximaciones bootstrap y por lo tanto es necesario obtener remuestras en un ordenador para poner a prueba el método. La enorme potencia de cálculo de los ordenadores actuales facilita considerablemente la aplicabilidad de este método tan costoso computacionalmente.

Estadística distribuciones obtenidas de Simon Newcomb velocidad de la luz de datos obtenidos a través de bootstrapping: el resultado final difiere entre la desviación estándar y la mediana de la desviación absoluta (ambas medidas de la dispersión) distribuciones.

Historia[editar]

El bootstrap fue publicado por Bradley Efron en Bootstrap methods: another look at the jackknife (1979),[1][2][3]​ inspirado en trabajos anteriores sobre el jackknife.[4][5][6]​ Una mejora de las estimaciones de la varianza se desarrollaron más tarde.[7][8]​ Una extensión bayesiana se desarrolló en 1981.[9]​El bootstrap bias-corregido y acelerado (BCa) fue desarrollado por Efron en 1987,[10]​ y el procedimiento de ABC en 1992.[11]

Enfoque[editar]

La idea básica de bootstrap es que la inferencia sobre una población a partir de datos de muestra, (muestra → población), puede ser modelada mediante un nuevo muestreo de los datos de la muestra y realizando la inferencia sobre una muestra a partir de datos reamosturados. Como la población es desconocida, el verdadero error en una muestra estadística contra su valor poblacional es desconocido. En las re-muestras de bootstrap, la 'población' es de hecho la muestra, y esto se conoce; por lo tanto, se puede medir la calidad de la inferencia de la muestra "verdadera" a partir de datos remuestreados, (muestra re-muestreada).

Referencias[editar]

  1. Notes for Earliest Known Uses of Some of the Words of Mathematics: Bootstrap (John Aldrich)
  2. Earliest Known Uses of Some of the Words of Mathematics (B) (Jeff Miller)
  3. Efron, B. (1979). «Bootstrap methods: Another look at the jackknife». The Annals of Statistics 7 (1): 1-26. doi:10.1214/aos/1176344552. 
  4. Quenouille M (1949) Approximate tests of correlation in time-series. J Roy Statist Soc Ser B 11 68–84
  5. Tukey J (1958) Bias and confidence in not-quite large samples (abstract). Ann Math Statist 29 614
  6. Jaeckel L (1972) The infinitesimal jackknife. Memorandum MM72-1215-11, Bell Lab
  7. Bickel P, Freeman D (1981) Some asymptotic theory for the bootstrap. Ann Statist 9 1196–1217
  8. Singh K (1981) On the asymptotic accuracy of Efron’s bootstrap. Ann Statist 9 1187–1195
  9. Rubin D (1981). The Bayesian bootstrap. Ann Statist 9 130–134
  10. Efron, B. (1987). «Better Bootstrap Confidence Intervals». Journal of the American Statistical Association (Journal of the American Statistical Association, Vol. 82, No. 397) 82 (397): 171-185. JSTOR 2289144. doi:10.2307/2289144. 
  11. Diciccio T, Efron B (1992) More accurate confidence intervals in exponential families. Biometrika 79 231–245