Diferencia entre revisiones de «Varianza»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Sin resumen de edición
Diegusjaimes (discusión · contribs.)
m Revertidos los cambios de 66.201.167.84 a la última edición de Luckas-bot
Línea 1: Línea 1:
En [[teoría de probabilidad]], la '''varianza''' de una PROBABLE DISTINTA IGUAL es la esperanza del cuadrado de la desviación de dicha variable respecto a su media. Se trata de una [[medida de la dispersión]] de dicha variable aleatoria.
En [[teoría de probabilidad]], la '''varianza''' de una [[variable aleatoria]] es la esperanza del cuadrado de la desviación de dicha variable respecto a su media. Se trata de una [[medida de la dispersión]] de dicha variable aleatoria.


Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La [[desviación estándar]], la raíz cuadrada de la varianza, está sin embargo expresada en las mismas unidades. Tanto la varianza como la desviación estándar miden la variabilidad de la variable aleatoria.
Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La [[desviación estándar]], la raíz cuadrada de la varianza, está sin embargo expresada en las mismas unidades. Tanto la varianza como la desviación estándar miden la variabilidad de la variable aleatoria.


Hay que tener en cuenta que la varianza puede verse muy influida por los [[outliers]] y se desaconseja su uso cuando las distribuciones de las variables aleatorias TIENEN CERVEZAS PESADAS PERO AL MISMO TIEMPO SUELEN SER UN POCO LIVIANAS DEPENDIENDO DEL JERUNDIO DE LA SUPREMACIA DE WORM. En tales casos se recomienda el uso de otras medidas de dispersión más FLACAS.
Hay que tener en cuenta que la varianza puede verse muy influida por los [[outliers]] y se desaconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más [[estadísticas robustas|robustas]].


El término ''varianza'' fue acuñado por [[Ronald Fisher]] en un artículo de [[1918]] titulado ''The Correlation Between Relatives on the Supposition of Mendelian Inheritance''.
El término ''varianza'' fue acuñado por [[Ronald Fisher]] en un artículo de [[1918]] titulado ''The Correlation Between Relatives on the Supposition of Mendelian Inheritance''.

Revisión del 22:38 3 may 2010

En teoría de probabilidad, la varianza de una variable aleatoria es la esperanza del cuadrado de la desviación de dicha variable respecto a su media. Se trata de una medida de la dispersión de dicha variable aleatoria.

Está medida en unidades distintas de las de la variable. Por ejemplo, si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La desviación estándar, la raíz cuadrada de la varianza, está sin embargo expresada en las mismas unidades. Tanto la varianza como la desviación estándar miden la variabilidad de la variable aleatoria.

Hay que tener en cuenta que la varianza puede verse muy influida por los outliers y se desaconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales casos se recomienda el uso de otras medidas de dispersión más robustas.

El término varianza fue acuñado por Ronald Fisher en un artículo de 1918 titulado The Correlation Between Relatives on the Supposition of Mendelian Inheritance.

Definición

Varianza o variancia es la variable aleatoria x tiene media μ = E(X) se define la varianza Var(X) (también representada como o, simplemente σ2) de X como

Desarrollando la definición anterior, se obtiene

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza. Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas es la de Pareto cuando su índice k satisface 1 < k ≤ 2.

Caso continuo

Si la variable aleatoria X es continua con función de densidad f(x), entonces

donde

y las integrales están definidas sobre el rango de X.

Caso discreto

Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn, entonces

Ejemplos

Distribución exponencial

La distribución exponencial de parámetro λ es una distribución continua con soporte en el intervalo [0,∞) y función de densidad

Tiene media μ = λ−1. Por lo tanto, su varianza es:

Es decir, σ2 = μ2.

Dado perfecto

Un dado de seis caras puede modelarse como una variable aleatoria discreta que toma los valores del uno al seis con probabilidad igual a 1/6. El valor esperado es (1+2+3+4+5+6)/6 = 3.5. Por lo tanto, su varianza es:

Propiedades de la varianza

Algunas propiedades de la varianza son:

  • siendo a y b números reales cualesquiera. De esta propiedad se deduce que la varianza de una constante es cero, es decir,
  • , donde Cov(X,Y) es la covarianza de X e Y.
  • , donde Cov(X,Y) es la covarianza de X e Y.

Varianza muestral

En muchas situaciones es preciso estimar la varianza de una población a partir de una muestra. Si se toma una muestra con reemplazamiento de n valores de ella, de entre todos los estimadores posibles de la varianza de la población de partida, existen dos de uso corriente:

y

Cuando los datos están agrupados:

A los dos (cuando está dividido por n y cuando lo está por n-1) se los denomina varianza muestral. Difieren ligeramente y, para valores grandes de n, la diferencia es irrelevante. El primero traslada directamente la varianza de la muestra al de la población y el segundo es un estimador insesgado de la varianza de la población. De hecho,

mientras que

Distribución de la varianza muestral bajo condiciones de normalidad

Siendo una función de variables aleatorias, la varianza muestral es, en sí misma, otra variable aleatoria. Si son muestras independientes de una variable aleatoria normal, el teorema de Cochran muestra que sigue una distribución chi-cuadrado

Como consecuencia de lo anterior,

Si los yi son independientes y están idénticamente distribuidos, aunque no sean necesariamente normales, entonces s2 es un estadístico insesgado de . Si se cumplen las condiciones necesarias para la ley de los grandes números, s2 es un estimador consistente de .

Véase también