Método delta

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística, el método delta es un método para derivar un aproximado de la distribución de probabilidad para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la limitación de varianza. En términos más generales, el método delta puede ser considerado como una generalización del teorema del límite central.[1]

Método delta univariado[editar]

Mientras que el método delta se generaliza fácilmente a un ajuste multivariante, la motivación de la técnica se demuestra más fácilmente en términos univariados. En general, si hay una secuencia de variables aleatorias Xn que satisfacen :{\sqrt{n}[X_n-\theta]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2)}, donde θ y σ2 son constantes con valores finitos y \xrightarrow{D} denota la convergencia en distribución, entonces

{\sqrt{n}[g(X_n)-g(\theta)]\,\xrightarrow{D}\,\mathcal{N}(0,\sigma^2[g'(\theta)]^2)}

para cualquier función g que satisfaga la propiedad de que g′(θ) existe y sea valorada distinta de cero.[2]

Demostración en el caso Univariado[editar]

Demostración de la este resultado es bastante sencilla bajo el supuesto de que g′(θ) es es continua . Para comenzar, utilizamos el teorema del valor medio:

g(X_n)=g(\theta)+g'(\tilde{\theta})(X_n-\theta),

donde \tilde{\theta} queda entre Xn y θ. Tenga en cuenta que, dado que X_n\,\xrightarrow{P}\,\theta implica que \tilde{\theta} \,\xrightarrow{P}\,\theta y dado que g′(θ) es continua, aplicando el teorema de mapeo continuo se obtienes

g'(\tilde{\theta})\,\xrightarrow{P}\,g'(\theta),

donde \xrightarrow{P} denota la convergencia en la probabilidad.

Reordenando los términos y multiplicando por \sqrt{n} nos da

\sqrt{n}[g(X_n)-g(\theta)]=g'(\tilde{\theta})\sqrt{n}[X_n-\theta].

Dado que:

{\sqrt{n}[X_n-\theta] \xrightarrow{D} \mathcal{N}(0,\sigma^2)}

por los suposición de, se deduce de inmediato de apelación a el Teorema de Slutsky de que

{\sqrt{n}[g(X_n)-g(\theta)] \xrightarrow{D} \mathcal{N}(0,\sigma^2[g'(\theta)]^2)}.

Con lo que queda demostrado lo indicado.

Motivación del método delta multivariado[editar]

Por definición, un estimado consistente B converge en probabilidad a su verdadero valor β, y a menudo por el teorema del límite central se pueden aplicar para obtener normalidad asintótica:


\sqrt{n}\left(B-\beta\right)\,\xrightarrow{D}\,N\left(0, \Sigma \right),

donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positivo semi-definida). Supongamos que queremos para estimar la varianza de una h función de la estimador de B. Manteniendo solo los primeros dos términos de la series Taylor , y el uso de la notación vector para la gradiente de , podemos estimar h (B) como se


h(B) \approx h(\beta) + \nabla h(\beta)^T \cdot (B-\beta)

lo que implica la varianza de h (B) es aproximadamente el


\begin{align}
\operatorname{Var}\left(h(B)\right) & \approx \operatorname{Var}\left(h(\beta) + \nabla h(\beta)^T \cdot (B-\beta)\right) \\

 & = \operatorname{Var}\left(h(\beta) + \nabla h(\beta)^T \cdot B - \nabla h(\beta)^T \cdot \beta\right) \\

 & = \operatorname{Var}\left(\nabla h(\beta)^T \cdot B\right) \\

 & = \nabla h(\beta)^T \cdot Cov(B) \cdot \nabla h(\beta) \\

 & = \nabla h(\beta)^T \cdot (\Sigma/n) \cdot \nabla h(\beta)
\end{align}

Uno puede utilizar el teorema del valor medio (para las funciones de real-valued de muchas variables) para ver que este no se basa en de tomar aproximación de primer orden.

Por lo tanto, El método delta implica que:


\sqrt{n}\left(h(B)-h(\beta)\right)\,\xrightarrow{D}\,N\left(0, \nabla h(\beta)^T \cdot \Sigma \cdot \nabla h(\beta) \right)

o en términos univariados,


\sqrt{n}\left(h(B)-h(\beta)\right)\,\xrightarrow{D}\,N\left(0, \sigma^2 \cdot \left(h^\prime(\beta)\right)^2 \right).

Ejemplo[editar]

Supongamos que Xn es Binomial con parámetros p y la n. Desde

{\sqrt{n} \left[ \frac{X_n}{n}-p \right]\,\xrightarrow{D}\,N(0,p (1-p))},

podemos aplicar el método Delta con g (θ) = log (θ) para ver

{\sqrt{n} \left[ \log\left( \frac{X_n}{n}\right)-\log(p)\right] \,\xrightarrow{D}\,N(0,p (1-p) [1/p]^2)}

Por lo tanto, la varianza de  \log \left( \frac{X_n}{n} \right) es aproximadamente

 \frac{1-p}{p\,n}. \,\!

Por otra parte, si \hat p and \hat q son estimaciones de los diferentes tipos de grupo de muestras independientes de tamaños n y m respectivamente, entonces el logaritmo de la estimación de riesgo relativo  \frac{\hat p}{\hat q} aproximadamente él está normalmente distribuida con varianza que puede ser estimada por los  \frac{1-\hat p}{\hat p \, n}+\frac{1-\hat q}{\hat q \, m} . Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.

Nota[editar]

El método delta se utiliza a menudo en una forma que es esencialmente idéntica a la anterior, pero sin el supuesto de que X n o B es asintóticamente normal. A menudo el único contexto es que la varianza es "pequeña". Los resultados a continuación, solo dan aproximaciones a los medios y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (. 1953, p 258) son:


\begin{align}
\operatorname{Var} \left( h_r \right) = & \sum_i 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)^2
  \operatorname{Var}\left( B_i \right) + \\
 &  \sum_i \sum_{j \neq i} 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)
  \left( \frac{ \partial h_r }{ \partial B_j } \right)
  \operatorname{Cov}\left( B_i, B_j \right) \\
\operatorname{Cov}\left( h_r, h_s \right) = & \sum_i 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)
  \left( \frac{ \partial h_s }{ \partial B_i } \right)
  \operatorname{Var}\left( B_i \right) + \\
 &  \sum_i \sum_{j \neq i} 
  \left( \frac{ \partial h_r }{ \partial B_i } \right)
  \left( \frac{ \partial h_s }{ \partial B_j } \right)
  \operatorname{Cov}\left( B_i, B_j \right)
\end{align}

donde hr es el résimo elemento de h(B) y Bi es el iésimo elemento de B. La única diferencia es que Klein declaró estos como identidades, mientras que son en realidad aproximaciones.

Referencias[editar]

  1. Oehlert, G. W. (1992). A note on the delta method. The American Statistician, 46(1), 27-29.
  2. Cox, C. (1984). An elementary introduction to maximum likelihood estimation for multinomial models: Birch's theorem and the delta method. The American Statistician, 38(4), 283-287.

Bibliografía adicional[editar]

  • Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
  • Cramér, H. (1946), Mathematical Models of Statistics, p. 353.
  • Davison, A. C. (2003), Statistical Models, pp. 33-35.
  • Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
  • Klein, L. R. (1953), A Textbook of Econometrics, p. 258.