Independencia condicional

De Wikipedia, la enciclopedia libre

En probabilidad, dos acontecimientos R y B son condicionalmente independientes dado un tercer evento Y, si la ocurrencia o no ocurrencia de R junto con la de B se da en forma independiente dada Y. En otras palabras, R y B son condicionalmente independientes dado Y, si y sólo si el conocimiento que se tiene de Y provoca que el conocimiento sobre el estado de R no genere cambios sobre la probabilidad de que ocurra B, y de igual manera el conocimiento de si se produce B no proporciona información sobre la probabilidad de que ocurra R.

Definición formal[editar]

Estos son dos ejemplos que ilustran la independencia condicional . Cada celda representa un posible resultado. Los eventos R , B e Y están representados por las áreas sombreadas en rojo, azul y amarillo, respectivamente. La superposición entre los eventos R y B está sombreada de color púrpura. Las probabilidades de estos eventos son áreas sombreadas con respecto al área total. En ambos ejemplos, R y B son condicionalmente independientes dado Y porque: [1]
pero no condicionalmente independiente dado no Y porque: :

En la notación estándar de la teoría de probabilidades, R y B se dan condicionalmente independientes Y si y sólo si

o equivalentemente,

Dos variables aleatorias X e Y son condicionalmente independientes dado tercera variable aleatoria Z si y sólo si son independientes en su distribución de probabilidad condicional dado Z. Es decir, X e Y son condicionalmente independientes dado Z si y sólo si, dado cualquier valor de Z, la distribución de probabilidad de X es el mismo para todos los valores de Y y la distribución de probabilidad de Y es el mismo para todos los valores de x.

Dos acontecimientos R y B son condicionalmente independientes dado un σ-álgebra Σ si

donde denota la expectativa condicional de la función del indicador del evento A, , Dado el álgebra . Es decir,

Dos variables aleatorias X e Y son condicionalmente independientes dado un Σ σ-álgebra si la ecuación anterior es válida para todos los R en σ (X) y B en σ (Y).

Dos variables aleatorias X e Y son condicionalmente independientes dado una variable aleatoria W si son σ independientes dadas (W): la σ-álgebra generada por W. Esto es comúnmente escrito:

or

Esto se lee "X es independiente de Y, dado W"; el condicionamiento se aplica a toda la declaración: "(X es independiente de Y) dada W".

Si W asume un conjunto numerable de valores, esto es equivalente a la independencia condicional de X e Y para los acontecimientos de la forma [W = w]. Independencia condicional de más de dos eventos, o de más de dos variables aleatorias, se define de forma análoga.

Los dos ejemplos siguientes muestran que X ⊥ Y no implica ni está implícita en X ⊥ Y | W. Primero, supongamos que W es 0 con probabilidad 0.5 y es el valor 1 en caso contrario. Cuando W = 0 son X e Y sean independientes, cada una con el valor 0 con probabilidad 0.99 y el valor 1 en caso contrario. Cuando W = 1, X e Y son independientes de nuevo, pero esta vez se toman el valor 1 con probabilidad 0.99. Entonces X ⊥ Y | W. Pero X e Y son dependientes, porque Pr (X = 0) <Pr (X = 0 | Y = 0). Esto se debe a Pr (X = 0) = 0,5, pero si Y = 0, entonces es muy probable que W = 0 y por lo tanto que X = 0, así que Pr (X = 0 | Y = 0)> 0.5. Para el segundo ejemplo, supongamos que X ⊥ Y, teniendo cada uno de los valores 0 y 1 con una probabilidad de 0,5. Sea W el producto X × Y. Luego, cuando W = 0, Pr (X = 0) = 3.2, pero Pr (X = 0 | Y = 0) = 1/2, por lo que X ⊥ Y | W es falsa. Este es también un ejemplo de Explicando Away. Ver el tutorial de Kevin Murphy,[2]​ donde X e Y tomar los valores "inteligente" y "deportivo".

Referencias[editar]

  1. pero no condicionalmente independiente dado no Y porque: Pr ( R ∩ segundo | no Y ) ≠ Pr ( R | no Y ) Pr ( segundo | no Y ) . Pr(RB | Y) is the probability of an overlap of R and B (the purple shaded area) in the Y area. Since, in the picture on the left, there are two squares where R and B overlap within the Y area, and the Y area has twelve squares, Pr(RB | Y) = 2/12 = 1/6. Similarly, Pr(R | Y) = 4/12 = 1/3 and Pr(B | Y) = 6/12 = 1/2.
  2. http://people.cs.ubc.ca/~murphyk/Bayes/bnintro.html