Desigualdad de Chebyshov

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En probabilidad, la desigualdad de Chebyshev (también escrito como "Tchebycheff") es un resultado que ofrece una cota inferior a la probabilidad de que el valor de una variable aleatoria con varianza finita esté a una cierta distancia de su esperanza matemática. La desigualdad recibe su nombre del matemático ruso Pafnuti Chebyshev.

Formulación[editar]

Sea X una variable aleatoria no negativa y una función f:\mathbb{R}_{+}\longrightarrow\mathbb{R}_{+} creciente tal que E\left[f\left(X\right)\right]<+\infty. Entonces \forall a \in \mathbb{R} se da la desigualdad siguiente:

f\left(a\right)\cdot P\left(X\geq a\right)\leq E\left[f\left(X\right)\right]

Casos particulares de la desigualdad[editar]

Algunas formulaciones menos generales que se desprenden de la primera son las siguientes:

  • Sea X variable aleatoria con momento de orden k finito, entonces
P\left(X\geq a\right)\leq \frac{E\left[\left|X\right|^k\right]}{a^k}
siendo a>0 y f\left(X\right)=\left|X\right|^k .
  • Sea X con momento centrado de orden 2 finito, entonces
P\left(\left|X-E\left(X\right)\right|\geq a\right)\leq \frac{\mathrm{var}\left(X\right)}{a^2}
siendo Y=\left|X-E\left(X\right)\right|, f\left(Y\right)=Y^2, y E\left(Y^2\right)=E\left(\left|X-E\left(X\right)\right|^2\right)=\mathrm{var}(X) .
  • Sea X variable aleatoria de media \mu y varianza finita \sigma^2, entonces, para todo número real a>0,
P(\left|X-\mu\right|>a\sigma)\leq\frac{1}{a^2}.
Sólo en caso de que a>1 la desigualdad proporcionan una cota no trivial.

Ejemplos[editar]

Para ilustrar este resultado, supongamos que los artículos de Wikipedia tienen una extensión media de 1000 caracteres y una desviación típica de 200 caracteres. De la desigualdad de Chebyshov, usando k = 2, se deduce que al menos el 75% de los artículos tendrán una extensión comprendida entre 600 y 1400 caracteres.

Otra consecuencia del teorema es que para cada distribución de media μ y desviación típica finita σ, al menos la mitad de sus valores se concentrarán en el intervalo (μ-√2 σ, μ+√2 σ).

Demostración[editar]

f\left(a\right)\cdot 1_{\left\lbrace X\geq a\right\rbrace} \leq f\left(X\right)

  f\left(a\right)\cdot 1_{\left\lbrace X\geq a\right\rbrace} =
  \left\lbrace
    \begin{array}{cl}
     f\left(a\right) & si\,\, X \geq a \\
     0               & si\,\, X < a
    \end{array}
  \right.

Fijémonos en que E\left(f\left(a\right)\cdot 1_{\left\lbrace X\geq a\right\rbrace}\right) = f\left(a\right) \cdot P\left(X\geq a\right). Si ahora aplicamos la función esperanza a los dos lados de la primera desigualdad que hemos establecido habremos demostrado el resultado.

Demostración del tercer caso particular[editar]

Para demostrar la desigualdad se parte de la variable aleatoria auxiliar Y definida así:

Y = \left\{
	       \begin{array}{ll}
		 0      & \mathrm{si\ } |X - \mu| \leq a\sigma \\
		 1      & \mathrm{si\ } |X - \mu| > a\sigma \\
	       \end{array}
	     \right.

Entonces, trivialmente,

a  \sigma  Y\leq\left|X-\mu\right|

y por lo tanto,

a^2\sigma^2 Y^2\leq\left(X-\mu\right)^2.

Tomando esperanzas en ambos miembros se obtiene

a^2\sigma^2 E\left[Y^2\right]\leq E[\left(X-\mu\right)^2]=\sigma^2,

por lo que

E\left[Y^2\right]\leq\frac{1}{a^2}.

Pero, a su vez, dado que Y sólo puede ser 0 o 1,

E\left[Y^2\right]= P(Y=1) = P(\left|X-\mu\right|>a\sigma),

lo que prueba el resultado.

Véase también[editar]