Modelo autorregresivo

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En estadística y procesamiento de señales, un modelo autorregresivo (AR) es una representación de un tipo de proceso aleatorio, que como tal, describe ciertos procesos variables en el tiempo ya sea en la naturaleza, la economía, etc. El modelo autorregresivo especifica que la variable de salida depende linealmente de sus propios valores anteriores. Se trata de un caso especial del más general modelo ARMA de series de tiempo.

Definición[editar]

La notación AR (p) presenta un modelo autorregresivo de orden p. El modelo AR (P) se define como:

 X_t = c + \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t \,

donde \varphi_1, \ldots, \varphi_p son los parámetros del modelo, c es una constante, y \varepsilon_t es Ruido blanco. Esto se puede escribir de manera equivalente usando el operador de backshift B como

 X_t = c + \sum_{i=1}^p \varphi_i B^i X_t + \varepsilon_t

de manera que, moviendo el término sumatorio hacia el lado izquierdo y el uso de la notación polinómica, tenemos

\phi (B)X_t= c + \varepsilon_t \, .

Un modelo autorregresivo por lo tanto se puede ver como la salida de un todo- polo de impulso respuesta infinito filtro cuya entrada es ruido blanco.

Algunas limitaciones son necesarios en los valores de los parámetros de este modelo con el fin de que el modelo se mantiene estacionario en sentido amplio . Por ejemplo, los procesos en el (1) con el modelo |φ1| ≥ 1 no son estacionarias. Más en general, para un modelo AR (p) para ser estacionario en sentido amplio, las raíces del polinomio \\textstyle z^p - \sum_{i=1}^p \varphi_i z^{p-i} debe estar dentro del círculo unitario, es decir, cada raíz z_i debe satisfacer |z_i|<1

Efecto intertemporal de los choques[editar]

En un proceso AR, un choque de una sola vez afecta a los valores de la variable evolución infinitamente lejos en el futuro. Por ejemplo, considere el (1) el modelo AR  X_t = c + \varphi_1 X_{t-1} + \varepsilon_t. Un valor distinto de cero para \varepsilon_t el digamos el momento t = 1 afecta X_1 por la cantidad \varepsilon_1. A continuación, por la ecuación para la AR X_2 en términos de X_1, Esto afecta X_2 por la cantidad \varphi_1 \varepsilon_1. A continuación, por la ecuación para la AR X_3 en términos de X_2, Esto afecta X_3 por la cantidad \varphi_1^2 \varepsilon_1. Continuando este proceso muestra que el efecto de \varepsilon_1 nunca termina, aunque si el proceso es estacionario , entonces el efecto disminuye hacia cero en el límite.

Debido a que cada choque afecta a los valores de X infinitamente lejos en el futuro desde el momento en que se producen, cualquier valor dadoXt es afectada por perturbaciones que ocurren infinitamente lejos en el pasado. Esto también se puede ver mediante la reescritura de la autorregresión

\phi (B)X_t=  \varepsilon_t \,

(Donde el término constante ha sido suprimida por el supuesto de que la variable se ha medido como desviaciones de su media) como

X_t= \frac{1}{\phi (B)}\varepsilon_t \, .

Cuando la división polinómica en el lado derecho se lleva a cabo, el polinomio en el operador aplica a backshift \varepsilon_t tiene, es decir, un número infinito de valores rezagados de un infinito de orden que \varepsilon_t aparecerá en el lado derecho de la ecuación.

Polinomio Característico[editar]

La función de autocorrelación de un proceso AR (p) se puede expresar como

\rho(\tau) = \sum_{k=1}^p a_k y_k^{-|\tau|} ,

donde y_k son las raíces del polinomio

\phi(B) = 1- \sum_{k=1}^p \varphi_k B^k

donde B es el operador de backshift , donde \phi(.) es la función que define la autorregresión, y donde \varphi_k son los coeficientes de la autorregresión.

La función de autocorrelación de un proceso AR (p) es una suma de exponenciales en descomposición.

Cada raíz real contribuye un componente de la función de autocorrelación que decae exponencialmente. Del mismo modo, cada par de raíces complejas conjugadas contribuye una oscilación amortiguada exponencialmente.

Los gráficos de los procesos AR (p)[editar]

El proceso AR simple es AR (0), que no tiene dependencia entre los términos. Sólo el término de error / innovación / ruido contribuye a la salida del proceso, por lo que en la figura, AR (0) corresponde al ruido blanco.

Por un (1) Proceso de AR con un resultado positivo \varphi, Sólo el término anterior en el proceso y el término de ruido contribuyen a la salida. Si \varphi está cerca de 0, entonces el proceso todavía se ve como ruido blanco, pero como \varphi se aproxima a 1, la salida se pone una mayor contribución de la anterior legislatura en relación con el ruido. Esto resulta en una "suavizado" o integración de la salida, similar a un filtro de paso bajo.

Para una (2) Proceso de AR, los dos términos anteriores y el término de ruido contribuyen a la salida. Si tanto \varphi_1 y \varphi_2 son positivos, la salida se asemejan a un filtro de paso bajo, con la parte de alta frecuencia del ruido disminuyó. Si \varphi_1 es positivo, mientras que \varphi_2 es negativo, entonces el proceso favorece a los cambios en la señal entre los términos del proceso. La salida oscila.

Ejemplo: Un proceso AR(1)[editar]

Un (1) proceso de AR viene dada por:

X_t = c + \varphi X_{t-1}+\varepsilon_t\,

donde \varepsilon_t es un proceso de ruido blanco con media cero y varianza constante \sigma_\varepsilon^2. (Nota: El subíndice de \varphi_1 fue eliminado.) El proceso es en todo sentido estacionaria si |\varphi|<1 ya que se obtiene como la salida de un filtro estable cuya entrada es ruido blanco. (Si \varphi=1 entonces X_t tiene varianza infinita, y por lo tanto no es amplia estacionaria sentido.) Por lo tanto, suponiendo |\varphi|<1, la media \operatorname{E} (X_t) es idéntico para todos los valores de t. Si la media se denota por \mu, se desprende de

\operatorname{E} (X_t)=\operatorname{E} (c)+\varphi\operatorname{E} (X_{t-1})+\operatorname{E}(\varepsilon_t),

que

 \mu=c+\varphi\mu+0,

y por lo tanto

\mu=\frac{c}{1-\varphi}.

En particular, si c = 0, Entonces la media es 0.

La varianza es

\textrm{var}(X_t)=\operatorname{E}(X_t^2)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2},

donde \sigma_\varepsilon es la desviación estándar de \varepsilon_t. Esto se puede demostrar por señalar que

\textrm{var}(X_t) = \varphi^2\textrm{var}(X_{t-1}) + \sigma_\varepsilon^2,

y luego por darse cuenta de que la cantidad anterior es un punto fijo estable de esta relación.

La autocovarianza está dada por

B_n=\operatorname{E}(X_{t+n}X_t)-\mu^2=\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|n|}.

Se puede ver que la función de autocovarianza decae con un tiempo de caída (también llamado constante de tiempo ) de \tau=-1/\ln(\varphi) [Ver esto, escribir B_n=K\phi^{|n|} where K donde K es independiente de n. Luego cuenta que \phi^{|n|}=e^{|n|\ln\phi} y combinar esto con la ley de decaimiento exponencial e^{-n/\tau} ].

La densidad espectral de la función es la transformada de Fourier de la función de autocovarianza. En términos discretos este será el tiempo discreto transformada de Fourier:


\Phi(\omega)=
\frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n}
=\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma_\varepsilon^2}{1+\varphi^2-2\varphi\cos(\omega)}\right).

Esta expresión es periódica debido a la naturaleza discreta de la X_j , Lo que se manifiesta como la expresión del coseno en el denominador. Si asumimos que el tiempo de muestreo ( \ Delta t = 1 ) Es mucho menor que el tiempo de decaimiento ( \ Tau ), Entonces podemos utilizar una aproximación continua a B_n :

B(t)\approx \frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\,\varphi^{|t|}

que se obtiene un perfil de Lorentz para la densidad espectral:

\Phi(\omega)=
\frac{1}{\sqrt{2\pi}}\,\frac{\sigma_\varepsilon^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}


donde \gamma=1/\tau is the angular frequency associated with the decay time \tau.

Una expresión alternativa X_t pueden ser derivados por primera sustitución c + \ varphi X_ {t-2} + \ varepsilon_ {t-1} para X_ {t-1} en la ecuación de definición. Continuar con este proceso N veces los rendimientos

X_t=c\sum_{k=0}^{N-1}\varphi^k+\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.

Para N tendiendo a infinito, \ Phi ^ N se acercará a cero y:

X_t=\frac{c}{1-\varphi}+\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.

Se ve que X_t es ruido blanco convolución con la \ Phi ^ k núcleo más la media constante. Si el ruido blanco \ Varepsilon_t es un proceso Gaussiano luego X_t es también un proceso Gaussiano. En otros casos, el teorema del límite central indica que X_t se distribuirán aproximadamente normal cuando \ Varphi es cercano a uno.


Elección de Rezagos[editar]

Cálculo de los parámetros AR[editar]

Hay muchas formas de calcular los coeficientes, como el de mínimos cuadrados ordinarios procedimiento, método de momentos (a través de ecuaciones de Yule Walker), o cadena de Markov Monte Carlo métodos. [ cita requerida ]

El modelo AR (P) es dada por la ecuación

 X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,

Se basa en los parámetros de \ Varphi_i donde i = 1, ..., pág. Existe una correspondencia directa entre estos parámetros y la función de covarianza del proceso, y esta correspondencia puede ser invertida para determinar los parámetros de la función de autocorrelación (que es obtenido a partir de las covarianzas). Esto se hace utilizando las ecuaciones de Yule-Walker.

Ecuaciones de Yule-Walker[editar]

Las ecuaciones de Yule-Walker son el siguiente conjunto de ecuaciones. [1]


\gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_{m,0},

donde m = 0, ..., p, produciendo p + 1 ecuaciones. Aquí \gamma_m es la función de autocovarianza de Xt, \sigma_\varepsilon es la desviación estándar del proceso de ruido de entrada, y \delta_{m,0} es la función delta de Kronecker.

Debido a que la última parte de una ecuación individuo es distinto de cero sólo si m = 0, el conjunto de ecuaciones se puede resolver mediante la representación de las ecuaciones para m> 0 en forma de matriz, consiguiendo de este modo la ecuación

\begin{bmatrix}
\gamma_1 \\
\gamma_2 \\
\gamma_3 \\
\vdots \\
\gamma_p \\
\end{bmatrix}

=

\begin{bmatrix}
\gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\
\gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\
\gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\
\vdots      & \vdots         & \vdots       & \ddots \\
\gamma_{p-1} & \gamma_{p-2} & \gamma_{p-3} & \dots \\
\end{bmatrix}

\begin{bmatrix}
\varphi_{1} \\
\varphi_{2} \\
\varphi_{3} \\
 \vdots \\
\varphi_{p} \\
\end{bmatrix}

que puede ser resuelto para todos \{\varphi_m; m=1,2, \cdots ,p\}. La ecuación restante para m = 0 es


\gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2 ,

que, una vez \{\varphi_m ; m=1,2, \cdots ,p \} son conocidos, pueden ser resueltos por \sigma_\varepsilon^2 .

Una formulación alternativa es en términos de la función de autocorrelación . Los parámetros AR se determinan por la primera p 1 elementos \ Rho (\ tau) de la función de autocorrelación. La función de autocorrelación completo puede luego ser derivada de forma recursiva mediante el cálculo de:[2]

\rho(\tau) = \sum_{k=1}^p \varphi_k \rho(k-\tau)

Ejemplos de algunos AR baja para los procesos (p)

  • p=1
    • \gamma_1 = \varphi_1 \gamma_0
    • Hence \rho_1 = \gamma_1 / \gamma_0 = \varphi_1
  • p=2
    • The Yule-Walker equations for an AR(2) process are
      \gamma_1 = \varphi_1 \gamma_0 + \varphi_2 \gamma_{-1}
      \gamma_2 = \varphi_1 \gamma_1 + \varphi_2 \gamma_0
      • Remember that \gamma_{-k} = \gamma_k
      • Using the first equation yields \rho_1 = \gamma_1 / \gamma_0 = \frac{\varphi_1}{1-\varphi_2}
      • Using the recursion formula yields \rho_2 = \gamma_2 / \gamma_0 = \frac{\varphi_1^2 - \varphi_2^2 + \varphi_2}{1-\varphi_2}

Estimación de parámetros AR[editar]

Las ecuaciones anteriores (las ecuaciones de Yule-Walker) proporcionan varias rutas a la estimación de los parámetros de un AR (p) del modelo, mediante la sustitución de las covarianzas teóricas con valores estimados [. cita requerida ] Algunas de estas variantes se puede describir de la siguiente manera:

  • Estimación de autocovarianzas o autocorrelaciones. Aquí cada uno de estos términos se estima por separado, utilizando estimaciones convencionales. Hay diferentes maneras de hacerlo y la elección entre estos afectos a las propiedades del esquema de estimación. Por ejemplo, las estimaciones negativas de la varianza se pueden producir por algunas opciones.
  • Formulación como una regresión de mínimos cuadrados problema en el que se construyó un problema de predicción de mínimos cuadrados ordinarios, basando la predicción de los valores de X t en los p valores anteriores de la misma serie. Esto puede ser pensado como un plan con visión de predicción. Las ecuaciones normales para este problema se puede ver que corresponden a una aproximación de la forma de la matriz de las ecuaciones de Yule-Walker en el que cada aparición de un autocovarianza de la misma retardo se sustituye por una estimación ligeramente diferente.
  • Formulación como una forma extendida de un problema de mínimos cuadrados ordinarios predicción. Aquí dos conjuntos de ecuaciones de predicción se combinan en un solo régimen de estimación y un único conjunto de ecuaciones normales. Un grupo es el conjunto de ecuaciones de predicción hacia adelante y el otro es un conjunto correspondiente de ecuaciones de predicción hacia atrás, en relación con la representación de retroceso del modelo AR:
 X_t = c + \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon^*_t \,.

Aquí predicho de valores de Xt se basaría en los p valores futuros de la misma serie. Esta forma de estimación de los parámetros AR se debe a Burg,[3] y llame al método Burg:[4] Burg y autores posteriores llamadas estas estimaciones particulares "estima de máxima entropía",[5] pero el razonamiento detrás de esto se aplica a la utilización de cualquier conjunto de parámetros AR estimados. En comparación con el sistema de estimación utilizando sólo las ecuaciones de predicción hacia delante, se producen diferentes estimaciones de los autocovarianzas, y las estimaciones tienen diferentes propiedades de estabilidad. Estimaciones Burg están particularmente asociados con la estimación espectral máxima entropía.[6]

Otros posibles enfoques para la estimación incluyen estimación de máxima verosimilitud . Dos variantes distintas de máxima verosimilitud están disponibles: en uno (aproximadamente equivalente a la predicción hacia delante esquema de mínimos cuadrados) la función de probabilidad considerada es la que corresponde a la distribución condicional de los valores posteriores de la serie dado los valores de p iniciales en la serie; en el segundo, la función de probabilidad considerada es la que corresponde a la distribución incondicional conjunta de todos los valores de la serie observada. Diferencias sustanciales en los resultados de estos enfoques pueden ocurrir si la serie observada es corto, o si el proceso está cerca de no estacionariedad.

Espectro[editar]

AutocorrTimeAr.svg
AutoCorrAR.svg

La densidad espectral de potencia de un proceso AR(p) con la varianza del ruidoVar(Z_t) = \sigma_Z^2 is[2]

S(f) = \frac{\sigma_Z^2}{| 1-\sum_{k=1}^p \varphi_k e^{-2 \pi i k f} |^2}.

AR (0)[editar]

Para el ruido blanco (AR (0))

S(f) = \sigma_Z^2.

AR (1)[editar]

Para AR(1)

S(f) = \frac{\sigma_Z^2}{| 1- \varphi_1 e^{-2 \pi i f} |^2}
     = \frac{\sigma_Z^2}{ 1 + \varphi_1^2 - 2 \varphi_1 cos{2 \pi f} }

Si \varphi_1 > 0 hay un solo pico espectral a f = 0, a menudo referido como ruido rojo . Como \ Varphi_1 se convierte más cerca de 1, hay poder más fuerte en las frecuencias bajas, el tiempo es decir, más grande se queda. Se trata entonces de un filtro de paso bajo, cuando se aplica a la luz de espectro completo, todo a excepción de la luz roja se filtra. Si \varphi_1 < 0 hay un mínimo en f = 0, a menudo referido como ruido azul . Esta forma similar actúa como un filtro de paso alto, todo a excepción de la luz azul se filtra.

AR (2)[editar]

AR (2) Los procesos se pueden dividir en tres grupos en función de las características de sus raíces:

z_1,z_2 = \frac{1}{2}\left(\varphi_1 \pm \sqrt{\varphi_1^2 + 4\varphi_2}\right)

¿Cuándo \varphi_1^2 + 4\varphi_2 < 0, el proceso tiene un par de raíces complejos conjugados, la creación de un pico de frecuencia media en:

f^* = \frac{1}{2\pi}\cos^{-1}\left(\frac{\varphi_1(\varphi_2-1)}{4\varphi_2}\right)

De lo contrario, el proceso tiene raíces reales, y:

¿Cuándo \varphi_1 > 0 que actúa como un filtro de paso bajo en el ruido blanco con un pico espectral a f = 0 ¿Cuándo \varphi_1 < 0 que actúa como un filtro de paso alto en el ruido blanco con un pico espectral a f=1/2.

El proceso es estacionario cuando las raíces están fuera del círculo unitario. El proceso es estable cuando las raíces están dentro del círculo unitario, o de manera equivalente, cuando los coeficientes son en el triángulo -1 \le \varphi_2 \le 1 - |\varphi_1|.

La función PSD completa se puede expresar en forma real como:

S(f) = \frac{\sigma_Z^2}{1 + \varphi_1^2 + \varphi_2^2 - 2\varphi_1(1-\varphi_2)\cos(2\pi f) - 2\varphi_2\cos(4\pi f)}

Referencias[editar]

  1. Basu, S., & Reinsel, G. C. (1992). A note on properties of spatial Yule-Walker estimators. Journal of statistical computation and simulation, 41(3-4), 243-255.
  2. a b Von Storch, H.; F. W Zwiers (2001). Statistical analysis in climate research. Cambridge Univ Pr. ISBN 0-521-01230-9. [página requerida]
  3. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas Burg
  4. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas Brockwell
  5. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas Burg1
  6. Error en la cita: Etiqueta <ref> inválida; no se ha definido el contenido de las referencias llamadas Bos

Bibliografía Adicional[editar]