Covarianza

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En probabilidad y estadística, la covarianza es un valor que indica el grado de variación conjunta de dos variables aleatorias. Es el dato básico para determinar si existe una dependencia entre ambas variables y además es el dato necesario para estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de regresión.

Interpretación[editar]

Cuando a grandes valores de una de las variables suelen mayoritariamente corresponderles los grandes de la otra y lo mismo se verifica para los pequeños valores de una y la otra, se corrobora que tienden a mostrar similar comportamiento lo que se refleja en un valor positivo de la covarianza[1]
Por el contrario, cuando a los mayores valores de una variable suelen corresponder en general los menores de la otra, expresando un comportamiento opuesto, la covarianza es negativa.

El signo de la covarianza, por lo tanto, expresa la tendencia en la relación lineal entre las variables.
La magnitud requiere un esfuerzo adicional de interpretación:
La versión normalizada de la covarianza, el coeficiente de correlación indica la magnitud de la especificidad de la relación lineal.

Se debe distinguir entre:
(1) la covarianza de dos variables aleatorias, parámetro estadístico de una población considerado una propiedad de la distribución conjunta y
(2) la covarianza muestral que se emplea como un valor estadísticamente estimado del parámetro.

Definición[editar]

La covarianza entre dos distribución conjunta variables aleatorias reales x e y de segundos momentos finitos se define como[2]


\sigma(x,y) = \operatorname{E}{\big[(x - \operatorname{E}[x])(y - \operatorname{E}[y])\big]},

donde E[x] es el valor esperado de x, conocido también como la media de x. Apelando a la propiedad de la esperanza matemática lineal, se puede simplificar como


\begin{align}
\sigma(x,y)
&= \operatorname{E}\left[\left(x - \operatorname{E}\left[x\right]\right) \left(y - \operatorname{E}\left[y\right]\right)\right] \\
&= \operatorname{E}\left[x y - x \operatorname{E}\left[y\right] - \operatorname{E}\left[x\right] y + \operatorname{E}\left[x\right] \operatorname{E}\left[y\right]\right] \\
&= \operatorname{E}\left[x y\right] - \operatorname{E}\left[x\right] \operatorname{E}\left[y\right] - \operatorname{E}\left[x\right] \operatorname{E}\left[y\right] + \operatorname{E}\left[x\right] \operatorname{E}\left[y\right] \\
&= \operatorname{E}\left[x y\right] - \operatorname{E}\left[x\right] \operatorname{E}\left[y\right].
\end{align}

aunque esta última ecuación es proclive a perder sentido cuando se la calcula con punto flotante aritmético y \operatorname{E}[xy] \approx \operatorname{E}[x]\operatorname{E}[y] y lo que debe evitarse en programas de computación cuando el dato no ha sido previamente centrado.[3]

El estimador insesgado de la covarianza denotado s_{xy} de dos variables aleatorias x e y es:

s_{xy} = {1 \over (n-1)} \sum_{i=1}^n { (x_i - \overline{x})(y_i - \overline{y})}.

Cuando las variables aleatorias x e y son n-dimensionales, es decir, x=(x_1,\ldots,x_n)^t e y=(y_1,\ldots,y_n)^t, su matriz de covarianzas \Sigma_{xy} es:

\Sigma_{xy}={\operatorname{E}([x - \operatorname{E}(x)][y - \operatorname{E}(y)]^t)}

Interpretación de la covarianza[editar]

  • Si s_{xy} >{0} hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y.
  • Si s_{xy} = {0} Una covarianza 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas.
  • Si  s_{xy} < {0} hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.

Iguales interpretaciones se aplican al parámetro 
\sigma(x,y)

Propiedades[editar]

Si X, Y, W, y V son variables aleatorias y a, b, c, d son constantes ("constante" en este contexto significa no aleatorio), se cumple que:

  • \operatorname{Cov}(X, a) = 0 \,
  • \operatorname{Cov}(X, X) = \operatorname{Var}(X)\,, la varianza de X
  • \operatorname{Cov}(X, Y) = \operatorname{Cov}(Y, X)\,
  • \operatorname{Cov}(aX, bY) = ab\, \operatorname{Cov}(X, Y)\,
  • \operatorname{Cov}(X+a, Y+b) = \operatorname{Cov}(X, Y)\,
  • \operatorname{Cov}(aX+bY, cW+dV) = ac\,\operatorname{Cov}(X,W)+ad\,\operatorname{Cov}(X,V)+bc\,\operatorname{Cov}(Y,W)+bd\,\operatorname{Cov}(Y,V)\,
  • \operatorname{Cov}(X, Y) = \operatorname{E}(XY) -\operatorname{E}(X)\operatorname{E}(Y), fórmula que suele emplearse en la práctica para calcular la covarianza.

Estas propiedades se deducen de manera casi directa de la definición de la covarianza. En otras palabras la covarianza trata de explicar qué tan relacionadas se encuentran dos variables entre sí, qué tanto se mueve una cuando la otra se mueve otro tanto. Ejemplo, si la variable X se mueve 1, supongamos que la variable Y se mueve 2, entonces podemos decir que la variable Y se mueve positivamente el doble de lo que se movería la variable X.

Ausencia de correlación e independencia[editar]

Si X e Y son independientes, entonces su covarianza es cero. Esto ocurre por la propiedad de independencia,

\operatorname{E}(X \cdot Y)=E(X) \cdot E(Y).

Lo opuesto, sin embargo, generalmente no es cierto: algunos pares de variables aleatorias tienen covarianza cero pese a que no son independientes. Bajo algunas hipótesis adicionales, la covarianza de valor cero implica independencia, como por ejemplo en el caso de la distribución normal multivariante.

Relación con el producto escalar[editar]

La mayoría de las propiedades de la covarianza se deducen de las del producto escalar:

  1. Bilinealidad: para las constantes a y b, y las variables aleatorias X, Y, y U, Cov(aX + bY, U) = a Cov(X, U) + b Cov(Y, U)
  2. Simetría: Cov(X, Y) = Cov(Y, X)
  3. Es un operador positivo definido: Var(X) = Cov(X, X) ≥ 0; además, si Cov(X, X) = 0 entonces X es una variable aleatoria constante.

De hecho, la covarianza es un producto interior sobre el espacio cociente de las variables aleatorias de momentos finitos iguales salvo constante.

Véase también[editar]

Referencias[editar]

  1. http://mathworld.wolfram.com/Covariance.html
  2. Oxford Dictionary of Statistics, Oxford University Press, 2002, p. 104.
  3. Donald E. Knuth (1998). The Art of Computer Programming, volume 2: Seminumerical Algorithms, 3rd edn., p. 232. Boston: Addison-Wesley.

Enlaces externos[editar]