Varianza

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

En teoría de probabilidad, la varianza o variancia (que suele representarse como ) de una variable aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de dicha variable respecto a su media. Su unidad de medida corresponde al cuadrado de la unidad de medida de la variable: por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La varianza tiene como valor mínimo 0. La desviación estándar (raíz cuadrada positiva de la varianza) es una medida de dispersión alternativa, expresada en las mismas unidades que los datos de la variable objeto de estudio.

Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más robustas.

El término varianza fue acuñado por Ronald Fisher en un artículo publicado en enero de 1919 con el título The Correlation Between Relatives on the Supposition of Mendelian Inheritance.[1]

A continuación se hará un repaso de las fórmulas, hay que tener en cuenta que la fórmula de la varianza para una población (σ2) difiere de la fórmula de la varianza para una muestra (s2).

Definición[editar]

Sea una variable aleatoria con media , se define la varianza de la variable aleatoria , denotada por , o simplemente como

Desarrollando la definición anterior, se obtiene la siguiente definición alternativa (y equivalente):

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas es la de Pareto cuando su índice satisface .

Caso continuo[editar]

Si la variable aleatoria es continua con función de densidad entonces

donde

y las integrales están definidas sobre el soporte de la variable aleatoria , es decir, .

Caso discreto[editar]

Si la variable aleatoria es discreta con función de probabilidad entonces

donde

Propiedades[editar]

Sean y dos variables aleatorias con varianza finita y

  1. , donde denota la covarianza de e
  2. si y son variables aleatorias independientes.
  3. cálculo de la Varianza por Pitágoras, dónde es la variable aleatoria condicional dado .

Ejemplos[editar]

Distribución exponencial[editar]

Si una variable aleatoria continua tiene una distribución exponencial con parámetro entonces su función de densidad está dada por

para .

No es difícil ver que la media de es , por lo que para hallar su varianza calculamos

Después de integrar se puede concluir que

Dado perfecto[editar]

Un dado de seis caras puede representarse como una variable aleatoria discreta que toma, valores del 1 al 6 con probabilidad igual a 1/6. El valor esperado es (1+2+3+4+5+6)/6 = 3,5. Por lo tanto, su varianza es:

Varianza muestral[editar]

En muchas situaciones es preciso estimar la varianza poblacional a partir de una muestra. Si se toma una muestra con reemplazo de valores de ella, de entre todos los estimadores posibles de la varianza de la población de partida, existen dos de uso corriente

El primero de ellos

que puede ser escrito como

pues

y el segundo de ellos es

que puede ser escrito como

pues

A ambos se los denomina varianza muestral, difieren ligeramente y, para valores grandes de , la diferencia es irrelevante. El primero traslada directamente la varianza de la muestra al de la población y el segundo es un estimador insesgado de la varianza poblacional pues

mientras que

Propiedades de la varianza muestral[editar]

Como consecuencia de la igualdad , es un estadístico insesgado de . Además, si se cumplen las condiciones necesarias para la ley de los grandes números, s2 es un estimador consistente de .

Más aún, cuando las muestras siguen una distribución normal, por el teorema de Cochran, tiene la distribución chi-cuadrado:

Interpretaciones de la varianza muestral[editar]

Dejamos tres fórmulas equivalentes para el cálculo de la varianza muestral

Esta última igualdad tiene interés para interpretar los estimadores y , pues si se quiere evaluar la desviación de unos datos o sus diferencias, se puede optar por calcular el promedio de los cuadrados de las diferencias de cada par de datos:

. Nótese que el número de sumandos es .

O se puede considerar el promedio de los cuadrados de las diferencias de cada par de datos sin tener en cuenta cada dato consigo mismo, ahora el número de sumandos es .

Véase también[editar]

Referencias[editar]

  1. Fisher, R. A. (1919). «The Correlation Between Relatives on the Supposition of Mendelian Inheritance» Transactions of the Royal Society of Edinburgh Vol. 52, 02, pp 399-433.

Enlaces externos[editar]

  • [1] Simulación de la varianza de una variable discreta con R (lenguaje de programación)
  • [www.solin.16mb.com/estadistica_js/MediayDesviacion.htm] Un triángulo rectángulo.