Método delta

De Wikipedia, la enciclopedia libre

En estadística, el método delta es un método para derivar un aproximado de la distribución de probabilidad para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la limitación de varianza. En términos más generales, el método delta puede ser considerado como una generalización del teorema del límite central.[1]

Demostración en el caso Univariado[editar]

La demostración de este resultado es bastante sencilla bajo el supuesto de que g′(θ) es continua . Para comenzar, utilizamos el teorema del valor medio:

donde queda entre Xn y θ. Tenga en cuenta que, dado que implica que y dado que g′(θ) es continua, aplicando el teorema de mapeo continuo se obtienes

donde denota la convergencia en la probabilidad.

Reordenando los términos y multiplicando por nos da

Dado que:

por los suposición de, se deduce de inmediato de apelación al Teorema de Slutsky de que

Con lo que queda demostrado lo indicado.

Motivación del método delta multivariado[editar]

Por definición, un estimador consistente B converge en probabilidad a su verdadero valor β, y a menudo por el teorema del límite central se pueden aplicar para obtener normalidad asintótica:

donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positivo semi-definida). Supongamos que queremos para estimar la varianza de una h función de la estimador de B. Manteniendo solo los primeros dos términos de la serie Taylor , y el uso de la notación vector para la gradiente de , podemos estimar h (B) como se

lo que implica la varianza de h (B) es aproximadamente el

Uno puede utilizar el teorema del valor medio (para las funciones reales de varias variables) para ver que este no se basa en tomar aproximación de primer orden.

Por lo tanto, El método delta implica que:

o en términos univariados,

Ejemplo[editar]

Supongamos que Xn es Binomial con parámetros p y la n. Desde

podemos aplicar el método Delta con g (θ) = log (θ) para ver

Por lo tanto, la varianza de es aproximadamente

Por otra parte, si and son estimaciones de los diferentes tipos de grupo de muestras independientes de tamaños n y m respectivamente, entonces el logaritmo de la estimación de riesgo relativo aproximadamente él está normalmente distribuida con varianza que puede ser estimada por los . Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.

Nota[editar]

El método delta se utiliza a menudo en una forma que es esencialmente idéntica a la anterior, pero sin el supuesto de que X n o B es asintóticamente normal. A menudo el único contexto es que la varianza es "pequeña". Los resultados a continuación, solo dan aproximaciones a los medios y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (. 1953, p 258) son:

donde hr es el résimo elemento de h(B) y Bi es el iésimo elemento de B. La única diferencia es que Klein declaró estos como identidades, mientras que son en realidad aproximaciones.

Referencias[editar]

  1. Oehlert, G. W. (1992). A note on the delta method. The American Statistician, 46(1), 27-29.

Bibliografía adicional[editar]

  • Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
  • Cramér, H. (1946), Mathematical Models of Statistics, p. 353.
  • Davison, A. C. (2003), Statistical Models, pp. 33-35.
  • Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
  • Klein, L. R. (1953), A Textbook of Econometrics, p. 258.