Asimetría estadística

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
En punteado negro: la media, en punteado gris: la moda.
Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los coleóptilos del trigo).

Definición[editar]

Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica.

Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número de desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.

Medidas de asimetría[editar]

Coeficiente de asimetría de Fisher[editar]

En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del tercer momento estándar. La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1. Debido a que una simple suma de todas las desviaciones siempre es cero. En efecto, si por ejemplo, los datos están agrupados en  k clases, se tiene que:


\sum_{i=1}^{k}f_i(x_i-\mu)=\sum_{i=1}^{k}f_ix_i-\mu\sum_{i=1}^{k}f_i=\mu-\mu=0 \!

en donde  x_i representa la marca de la clase i-ésima y f_i denota la frecuencia relativa de dicha clase. Por ello, lo más sencillo es tomar las desviaciones al cubo.

El coeficiente de asimetría de Fisher, representado por \gamma_1, se define como:

\gamma_1 = \frac{\mu_3}{\sigma^3}, \!

donde \mu_3 es el tercer momento en torno a la media y \sigma es la desviación estándar.

Si \gamma_1>0, la distribución es asimétrica positiva o a la derecha.

Si \gamma_1<0, la distribución es asimétrica negativa o a la izquierda.

Si la distribución es simétrica, entonces sabemos que \gamma_1=0. El recíproco no es cierto: es un error común asegurar que si \gamma_1=0 entonces la distribución es simétrica (lo cual es falso).

Coeficiente de asimetría de Pearson[editar]

Sólo se puede utilizar en distribuciones uniformes, unimodales y moderadamente asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual a la moda.

A_p = \frac{\mu - moda}{\sigma}, \!

Si la distribución es simétrica,  \mu = moda y A_p=0. Si la distribución es asimétrica positiva la media se sitúa por encima de la moda y, por tanto, A_p>0.

Coeficiente de asimetría de Bowley[editar]

Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:

A_B = \frac{Q_{3/4} + Q_{1/4} - 2Me}{Q_{3/4} - Q_{1/4}} \!

En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el primer cuartil. Por tanto A_B=0.

Si la distribución es positiva o a la derecha, A_B>0.

Utilidad[editar]

La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la derecha de la media.

Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes estadísticos en la teoría de inferencia estadística.

Referencias[editar]

  • 'Introducción a la Estadística Económica y Empresarial. Teoría y Práctica.' de Fco. Javier Martín-Pliego López, Editorial Thomson, 2007 (Madrid).
  • 'Manual de Estadística Empresarial con ejercicios resueltos' de Eva Ropero, María Eleftheriou, Luana Gava y Eva Romero. Editorial Delta Publicaciones. 2008 (Madrid).

Enlaces externos[editar]