Teorema de Bayes

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 1763[1] que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.

En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.

Sea \{A_1, A_2, ..., A_i,   ...,   A_n\} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | A_i). Entonces, la probabilidad P(A_i | B) viene dada por la expresión:

P(A_i|B) = \frac{P(B | A_i) P(A_i)}{P(B)}

donde:

  • P(A_i) son las probabilidades a priori.
  • P(B|A_i) es la probabilidad de B en la hipótesis A_i.
  • P(A_i|B) son las probabilidades a posteriori.

Fórmula de Bayes[editar]

Con base en la definición de Probabilidad condicionada, obtenemos la Fórmula de Bayes, también conocida como la Regla de Bayes:

P(A_i|B) = \frac{P(B | A_i) P(A_i)}{\sum_{k=1}^n P(B | A_k) P(A_k)}

Aplicaciones[editar]

El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, que se adaptan con el uso.

Como observación, se tiene \sum_{i=1}^{n}P(A_i |B)=1 y su demostración resulta trivial.

Véase también[editar]

Enlaces externos[editar]

Referencias[editar]

  1. * Bayes, Thomas (1763). «An Essay towards solving a Problem in the Doctrine of Chances.». Philosophical Transactions of the Royal Society of London 53:  pp. 370–418. doi:10.1098/rstl.1763.0053.