Independencia (probabilidad)

De Wikipedia, la enciclopedia libre
(Redirigido desde «Independencia estadística»)
Saltar a: navegación, búsqueda

En teoría de probabilidades, se dice que dos sucesos aleatorios son independientes entre sí cuando la probabilidad de cada uno de ellos no está influida porque el otro suceso ocurra o no, es decir, cuando ambos sucesos no están relacionados.

Definición formal[editar]

Dos sucesos son independientes si la probabilidad de que ocurran ambos simultáneamente es igual al producto de las probabilidades de que ocurra cada uno de ellos, es decir, si P(A \cap B)=P(A)P(B)

Motivación de la definición[editar]

Sean A y B dos sucesos tales que P(B)>0, intuitivamente A es independiente de B si la probabilidad de A condicionada por B es igual a la probabilidad de A. Es decir si:

P(A|B) \ = \ P(A)

De la propia definición de probabilidad condicionada:

P(A \mid B) = \frac{P(A \cap B)}{P(B)}.

se deduce que P(A \cap B) \ = \ P(A \mid B) P(B), y dado que P(A|B) \ = \ P(A) deducimos trivialmente que P(A \cap B) \ = \ P(A)  P(B).

Si el suceso A es independiente del suceso B, automáticamente el suceso B es independiente de A.

Propiedades[editar]

La independencia de sucesos es algo muy importante para la estadística y es condición necesaria en multitud de teoremas. Por ejemplo, una de las primeras propiedades que se deriva de la definición de sucesos independientes es que si dos sucesos son independientes entre sí, la probabilidad de la intersección es igual al producto de las probabilidades.