Desigualdad de Chebyshov

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En probabilidad, la desigualdad de Cheby shev (también escrito como "Tchebycheff") es un resultado que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su esperanza matemática. La desigualdad recibe su nombre del matemático ruso Pafnuti Chebyshev.

En la literatura, a este tipo de desigualdades, cuya característica es la comparación de la probabilidad de la cola de la distribución y su valor esperado, se le conoce como desigualdades tipo Chevy shev.

Estas desigualdades son la herramienta básica para demostrar resultados como la Ley de los grandes números, entre otros. Además de que tienen aplicaciones en estadística, así como en otras áreas de las matemáticas.



Formulación[editar]

Sea X una variable aleatoria no negativa y una función f:\mathbb{R}_{+}\longrightarrow\mathbb{R}_{+} creciente tal que E\left[f\left(X\right)\right]<+\infty. Entonces \forall a \in \mathbb{R} se da la desigualdad siguiente:

f\left(a\right)\cdot P\left(X\geq a\right)\leq E\left[f\left(X\right)\right]

Casos particulares de la desigualdad[editar]

Algunas formulaciones menos generales que se desprenden de la primera son las siguientes:

  • Sea X variable aleatoria con momento de orden k finito, entonces
P\left(X\geq a\right)\leq \frac{E\left[\left|X\right|^k\right]}{a^k}
siendo a>0 y f\left(X\right)=\left|X\right|^k .
  • Sea X con momento centrado de orden 2 finito, entonces
P\left(\left|X-E\left(X\right)\right|\geq a\right)\leq \frac{\mathrm{var}\left(X\right)}{a^2}
siendo Y=\left|X-E\left(X\right)\right|, f\left(Y\right)=Y^2, y E\left(Y^2\right)=E\left(\left|X-E\left(X\right)\right|^2\right)=\mathrm{var}(X) .
  • Sea X variable aleatoria de media \mu y varianza finita \sigma^2, entonces, para todo número real a>0,
P(\left|X-\mu\right|>a\sigma)\leq\frac{1}{a^2}.
Sólo en caso de que a>1 la desigualdad proporcionan una cota no trivial.

Ejemplos[editar]

Para ilustrar este resultado, supongamos que los artículos de Wikipedia tienen una extensión media de 1000 caracteres y una desviación típica de 200 caracteres. De la desigualdad de Chebyshov, usando k = 2, se deduce que al menos el 75% de los artículos tendrán una extensión comprendida entre 600 y 1400 caracteres.

Otra consecuencia del teorema es que para cada distribución de media μ y desviación típica finita σ, al menos la mitad de sus valores se concentrarán en el intervalo (μ-√2 σ, μ+√2 σ).

Demostración[editar]

f\left(a\right)\cdot 1_{\left\lbrace X\geq a\right\rbrace} \leq f\left(X\right)

  f\left(a\right)\cdot 1_{\left\lbrace X\geq a\right\rbrace} =
  \left\lbrace
    \begin{array}{cl}
     f\left(a\right) & si\,\, X \geq a \\
     0               & si\,\, X < a
    \end{array}
  \right.

Fijémonos en que E\left(f\left(a\right)\cdot 1_{\left\lbrace X\geq a\right\rbrace}\right) = f\left(a\right) \cdot P\left(X\geq a\right). Si ahora aplicamos la función esperanza a los dos lados de la primera desigualdad que hemos establecido habremos demostrado el resultado.

Demostración del tercer caso particular[editar]

Para demostrar la desigualdad se parte de la variable aleatoria auxiliar Y definida así:

Y = \left\{
	       \begin{array}{ll}
		 0      & \mathrm{si\ } |X - \mu| \leq a\sigma \\
		 1      & \mathrm{si\ } |X - \mu| > a\sigma \\
	       \end{array}
	     \right.

Entonces, trivialmente,

a  \sigma  Y\leq\left|X-\mu\right|

y por lo tanto,

a^2\sigma^2 Y^2\leq\left(X-\mu\right)^2.

Tomando esperanzas en ambos miembros se obtiene

a^2\sigma^2 E\left[Y^2\right]\leq E[\left(X-\mu\right)^2]=\sigma^2,

por lo que

E\left[Y^2\right]\leq\frac{1}{a^2}.

Pero, a su vez, dado que Y sólo puede ser 0 o 1,

E\left[Y^2\right]= P(Y=1) = P(\left|X-\mu\right|>a\sigma),

lo que prueba el resultado.

Véase también[editar]