Método delta

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística, el método delta es un método para derivar un aproximado de la distribución de probabilidad para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la limitación de varianza. En términos más generales, el método delta puede ser considerado como una generalización del teorema del límite central.[1]

Demostración en el caso Univariado[editar]

Demostración de la este resultado es bastante sencilla bajo el supuesto de que g′(θ) es continua . Para comenzar, utilizamos el teorema del valor medio:

donde queda entre Xn y θ. Tenga en cuenta que, dado que implica que y dado que g′(θ) es continua, aplicando el teorema de mapeo continuo se obtienes

donde denota la convergencia en la probabilidad.

Reordenando los términos y multiplicando por nos da

Dado que:

por los suposición de, se deduce de inmediato de apelación a el Teorema de Slutsky de que

Con lo que queda demostrado lo indicado.

Motivación del método delta multivariado[editar]

Por definición, un estimado consistente B converge en probabilidad a su verdadero valor β, y a menudo por el teorema del límite central se pueden aplicar para obtener normalidad asintótica:

donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positivo semi-definida). Supongamos que queremos para estimar la varianza de una h función de la estimador de B. Manteniendo solo los primeros dos términos de la serie Taylor , y el uso de la notación vector para la gradiente de , podemos estimar h (B) como se

lo que implica la varianza de h (B) es aproximadamente el

Uno puede utilizar el teorema del valor medio (para las funciones de real-valued de muchas variables) para ver que este no se basa en de tomar aproximación de primer orden.

Por lo tanto, El método delta implica que:

o en términos univariados,

Ejemplo[editar]

Supongamos que Xn es Binomial con parámetros p y la n. Desde

podemos aplicar el método Delta con g (θ) = log (θ) para ver

Por lo tanto, la varianza de es aproximadamente

Por otra parte, si and son estimaciones de los diferentes tipos de grupo de muestras independientes de tamaños n y m respectivamente, entonces el logaritmo de la estimación de riesgo relativo aproximadamente él está normalmente distribuida con varianza que puede ser estimada por los . Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.

Nota[editar]

El método delta se utiliza a menudo en una forma que es esencialmente idéntica a la anterior, pero sin el supuesto de que X n o B es asintóticamente normal. A menudo el único contexto es que la varianza es "pequeña". Los resultados a continuación, solo dan aproximaciones a los medios y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (. 1953, p 258) son:

donde hr es el résimo elemento de h(B) y Bi es el iésimo elemento de B. La única diferencia es que Klein declaró estos como identidades, mientras que son en realidad aproximaciones.

Referencias[editar]

  1. Oehlert, G. W. (1992). A note on the delta method. The American Statistician, 46(1), 27-29.

Bibliografía adicional[editar]

  • Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
  • Cramér, H. (1946), Mathematical Models of Statistics, p. 353.
  • Davison, A. C. (2003), Statistical Models, pp. 33-35.
  • Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
  • Klein, L. R. (1953), A Textbook of Econometrics, p. 258.