Covarianza

De Wikipedia, la enciclopedia libre
Esta es una versión antigua de esta página, editada a las 08:57 26 oct 2020 por 193.146.236.119 (discusión). La dirección URL es un enlace permanente a esta versión, que puede ser diferente de la versión actual.

En probabilidad y estadística, la covarianza es un valor que indica el grado de variación conjunta de dos variables aleatorias respecto a sus medias. Es el dato básico para determinar si existe una dependencia entre ambas variables y además es el dato necesario para estimar otros parámetros básicos, como el coeficiente de correlación lineal o la recta de regresión.

Interpretación

Cuando los valores altos de una de las variables suelen mayoritariamente corresponderse con los valores altos de la otra, y lo mismo se verifica para los pequeños valores de una con los de la otra, se corrobora que tienden a mostrar comportamiento similar lo que se refleja en un valor positivo de la covarianza[1]
Por el contrario, cuando los valores altos de una variable suelen corresponder mayoritariamente a los menores valores de la otra, expresando un comportamiento opuesto, la covarianza es negativa.

El signo de la covarianza, por lo tanto, expresa la tendencia en la relación lineal entre las variables.
La magnitud requiere un esfuerzo adicional de interpretación:
La versión normalizada de la covarianza, el coeficiente de correlación indica la magnitud de la especificidad de la relación lineal.

Se debe distinguir entre:
(1) la covarianza de dos variables aleatorias, parámetro estadístico de una población considerado una propiedad de la distribución conjunta y
(2) la covarianza muestral que se emplea como un valor estadísticamente estimado es una de las principales causas o motivos de la covarianza

Definición

La covarianza entre dos variables aleatorias reales de distribución conjunta x e y, de segundos momentos finitos se define como[2]

donde E[x] es el valor esperado de x, conocido también como la esperanza de x. Apelando a la propiedad de la esperanza matemática lineal, se puede simplificar como

aunque esta última ecuación es proclive a dar un resultado poco significativo cuando se la calcula con punto flotante aritmético y se da la circunstancia de que . Por tanto no debería usarse en programas de ordenador si los datos no han sido previamente centrados.[3]

El estimador insesgado de la covarianza denotado de dos variables aleatorias e es:

.

Cuando las variables aleatorias e son n-dimensionales, es decir, e , su matriz de covarianzas es:

Interpretación de la covarianza

  • Si hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y.
  • Si Una covarianza 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas.
  • Si hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.

Iguales interpretaciones se aplican al parámetro

Propiedades

Si X, Y, W, y V son variables aleatorias y a, b, c, d son constantes ("constante" en este contexto significa no aleatorio), se cumple que:

  • , la varianza de
  • , fórmula que suele emplearse en la práctica para calcular la covarianza.

Estas propiedades se deducen de manera casi directa de la definición de la covarianza. En otras palabras la covarianza trata de explicar qué tan relacionadas se encuentran dos variables entre sí, qué tanto se mueve una cuando la otra se mueve otro tanto. Ejemplo, si la variable X se mueve 1, supongamos que la variable Y se mueve 2, entonces podemos decir que la variable Y se mueve positivamente el doble de lo que se movería la variable X.

Ausencia de correlación e independencia

Si X e Y son independientes, entonces su covarianza es cero. Esto ocurre por la propiedad de independencia,

Lo opuesto, sin embargo, generalmente no es cierto: algunos pares de variables aleatorias tienen covarianza cero pese a que no son independientes. Bajo algunas hipótesis adicionales, la covarianza de valor cero implica independencia, como por ejemplo en el caso de la distribución normal multivariante.

Relación con el producto escalar

La mayoría de las propiedades de la covarianza se deducen de las del producto escalar:

  1. Bilinealidad: para las constantes a y b, y las variables aleatorias X, Y, y U, Cov(aX + bY, U) = a Cov(X, U) + b Cov(Y, U)
  2. Simetría: Cov(X, Y) = Cov(Y, X)
  3. Es un operador positivo definido: Var(X) = Cov(X, X) ≥ 0; además, si Cov(X, X) = 0 entonces X es una variable aleatoria constante.

De hecho, la covarianza es un producto interior sobre el espacio cociente de las variables aleatorias de momentos finitos iguales salvo constante.

Véase también

Referencias

  1. http://mathworld.wolfram.com/Covariance.html
  2. Oxford Dictionary of Statistics, Oxford University Press, 2002, p. 104.
  3. Donald E. Knuth (1998). The Art of Computer Programming, volume 2: Seminumerical Algorithms, 3rd edn., p. 232. Boston: Addison-Wesley.

Enlaces externos