Distribución de Bernoulli

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Bernoulli
Parámetros 0<p<1, p\in\R
Dominio k=\{0,1\}\,
Función de probabilidad (fp) 
    \begin{matrix}
    q=(1-p) & \mbox{para }k=0 \\p~~ & \mbox{para }k=1
    \end{matrix}
Función de distribución (cdf) 
    \begin{matrix}
    0 & \mbox{para }k<0 \\q & \mbox{para }0\leq k<1\\1 & \mbox{para }k\geq 1
    \end{matrix}
Media p\,
Mediana N/A
Moda \begin{matrix}
0 & \mbox{si } q > p\\
0 y 1 & \mbox{si } q=p\\
1 & \mbox{si } q < p
\end{matrix}
Varianza pq\,
Coeficiente de simetría \frac{q-p}{\sqrt{pq}}
Curtosis \frac{6p^2-6p+1}{p(1-p)}
Entropía -q\ln(q)-p\ln(p)\,
Función generadora de momentos (mgf) q+pe^t\,
Función característica q+pe^{it}\,
[editar datos en Wikidata ]

En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito (p) y valor 0 para la probabilidad de fracaso (q=1-p).

Si X es una variable aleatoria que mide el "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria X \, se distribuye como una Bernoulli de parámetro p \,.

X \sim Be(p) \,

La fórmula será:

f(x) = p^x(1-p)^{1-x} \, \qquad \text{ con } \, x = \{0, 1\} \,

Su función de probabilidad viene definida por:

 f\left(x;p\right) = \left\{\begin{matrix} p & \mbox {si }x=1, \\
q & \mbox {si }x=0, \\
0 & \mbox {en cualquier otro caso}\end{matrix}\right.

Un experimento al cual se aplica la distribución de Bernoulli se conoce como Ensayo de Bernoulli o simplemente ensayo, y la serie de esos experimentos como ensayos repetidos.

Propiedades características[editar]

Esperanza matemática:

 E\left[X\right] = p = u

Varianza:

 var\left[X\right] = p  \left(1 - p\right) = p  q

Función generatriz de momentos:

 \left( q + p e^{t} \right)

Función característica:

 \left( q + p e^{i t} \right)

Moda:

0 si q > p (hay más fracasos que éxitos)
1 si q < p (hay más éxitos que fracasos)
0 y 1 si q = p (los dos valores, pues hay igual número de fracasos que de éxitos)


Asimetría (Sesgo):


   \gamma_1 = \frac{q - p}{ \sqrt{q p} }

Curtosis:


   \gamma_2 = \frac{6p^2-6p+1}{p(1-p)}

La Curtosis tiende a infinito para valores de p cercanos a 0 ó a 1, pero para p=\frac{1}{2} la distribución de Bernoulli tiene un valor de curtosis menor que el de cualquier otra distribución, igual a -2.

Distribuciones Relacionadas[editar]

  • Si X_1, X_2, X_3, \dots ,X_n son  n variables aleatorias identicamente distribuidas con la distribución de Bernoulli con la misma probabilidad de éxito p en todas, entonces la variable aleatoria  X = X_1 + X_2 + \dots + X_n presenta una Distribución Binomial de probabilidad.

X \sim B(n, p)

Ejemplo[editar]

"Lanzar una moneda, probabilidad de conseguir que salga cruz".

Se trata de un solo experimento, con dos resultados posibles: el éxito (p) se considerará sacar cruz. Valdrá 0,5. El fracaso (q) que saliera cara, que vale (1 - p) = 1 - 0,5 = 0,5.

La variable aleatoria X medirá "número de cruces que salen en un lanzamiento", y sólo existirán dos resultados posibles: 0 (ninguna cruz, es decir, salir cara) y 1 (una cruz).

Por tanto, la v.a. X se distribuirá como una Bernoulli, ya que cumple todos los requisitos.

X \sim Be(0,5)

P(X = 0) = f(0) = 0,5^0 0,5^1 = 0,5

P(X = 1) = f(1) = 0,5^1 0,5^0 = 0,5


Ejemplo:

"Lanzar un dado y salir un 6".

Cuando lanzamos un dado tenemos 6 posibles resultados:

\Omega = \{1, 2, 3, 4, 5, 6\}

Estamos realizando un único experimento (lanzar el dado una sola vez).

Se considera éxito sacar un 6, por tanto, la probabilidad según la principio de indiferencia|principio de indiferencia de Laplace (casos favorables dividido entre casos posibles) será 1/6.

p = 1/6

Se considera fracaso no sacar un 6, por tanto, se considera fracaso sacar cualquier otro resultado.

q = 1 - p = 1- 1/6 = 5/6

La variable aleatoria X medirá "número de veces que sale un 6", y solo existen dos valores posibles, 0 (que no salga 6) y 1 (que salga un 6).

Por tanto, la variable aleatoria X se distribuye como una Bernoulli de parámetro p = 1/6

X \sim Be(1/6)

La probabilidad de que obtengamos un 6 viene definida como la probabilidad de que X sea igual a 1.

P(X = 1) = f(1) = (1/6)^1 * (5/6)^0 = 1/6 =  0.1667

La probabilidad de que NO obtengamos un 6 viene definida como la probabilidad de que X sea igual a 0.

P(X = 0) = f(0) = (1/6)^0 * (5/6)^1 = 5/6 = 0.8333

Véase también[editar]