Teoría de la probabilidad

De Wikipedia, la enciclopedia libre
(Redirigido desde «Cálculo de probabilidades»)
Saltar a: navegación, búsqueda

La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios estocásticos. Estos deben contraponerse a los fenómenos determinísticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de una moneda. La teoría de probabilidades se ocupa de asignar un cierto número a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es más probable que otro.

Muchos fenómenos naturales son aleatorios, pero existen algunos como el lanzamiento de un dado, donde el fenómeno no se repite en las mismas condiciones, debido a que la características del material hace que no exista una simetría del mismo, así las repeticiones no garantizan una probabilidad definida. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parámetros que intervienen; ésta es una de las razones por las cuales la estadística, que busca determinar estos parámetros, no se reduce inmediatamente a la teoría de la probabilidad en sí.

En 1933, el matemático soviético Andréi Kolmogórov propuso un sistema de axiomas para la teoría de la probabilidad, basado en la teoría de conjuntos y en la teoría de la medida, desarrollada pocos años antes por Lebesgue, Borel y Frechet entre otros.

Esta aproximación axiomática que generaliza el marco clásico de la probabilidad, la cual obedece a la regla de cálculo de casos favorables sobre casos posibles, permitió la rigorización de muchos argumentos ya utilizados, así como el estudio de problemas fuera de los marcos clásicos. Actualmente, la teoría de la probabilidad encuentra aplicación en las más variadas ramas del conocimiento, como puede ser la física (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas (donde destaca el modelo de Black y Scholes para la valuación de acciones).

Definición de probabilidad[editar]

Historia[editar]

La teoría de la probabilidad se desarrolló originalmente a partir de ciertos problemas planteados en el contexto de juegos de azar. Inicialmente, no existía una teoría axiomática bien definida y las definiciones iniciales de probabilidad se basaron en la idea intuitiva de un cociente de ocurrencias:

\mathrm{Prob}(A) = \lim_{N\to \infty} \frac{n_A}{N}

donde A es un suceso cualquiera y:

N\, es el número de veces que se ha repetido una acción u observación cuyo resultado puede dar el suceso A o no-A.
n_A, es el número de veces que observa A en todas las observaciones.

Este tipo de definiciones si bien permitieron desarrollar un gran número de propiedades, no permitían deducir todos los teoremas y resultados importantes que hoy forman parte de la teoría de la probabilidad. La primera axiomatización completa se debió a Andrei Kolmogorov (quien usó dicho enfoque por ejemplo para deducir su "ley 0-1 para sucesos cola" y otros resultados relacionados con la convergencia de sucesiones aleatorias). La definición axiomática de la probabilidad se basa en resultados de la teoría de la medida y en formalizaciones de la idea de independencia probabilística. En este enfoque se parte de un espacio de medida normalizada (\Omega, \mathcal{M}, \mu_P) donde \Omega es un conjunto llamado espacio de sucesos (según el tipo de problema puede ser un conjunto finito, numerable o no-numerable), \mathcal{M} \in \mathcal{P}(\Omega) es una σ-álgebra de subconjuntos de \Omega y \mu_P:\mathcal{M} \to \R es una medida normalizada (es decir, \mu_P(\Omega) = 1). Los sucesos posibles se consideran como subconjuntos S de eventos elementales posibles: S\in \mathcal{M}, S\subset \Omega y la probabilidad de que cada suceso viene dada por la medida de dicho conjunto:

\mathrm{Prob}(S) = \mu_P(S) \in [0,1],

La interpretación de esta probabilidad es la frecuencia promedio con la que aparece dicho suceso si se considera una elección de muestras aleatorias sobre \Omega.

La definición anterior es complicada de representar matemáticamente ya que \Omega debiera ser infinito. Otra manera de definir la probabilidad es de forma axiomática esto estableciendo las relaciones o propiedades que existen entre los conceptos y operaciones que la componen.

Definición clásica de probabilidad[editar]

La probabilidad es la característica de un evento, que hace que existan razones para creer que éste se realizará.

La probabilidad p de que suceda un evento S de un total de n casos posibles igualmente probables es igual a la razón entre el número de ocurrencias h de dicho evento (casos favorables) y el número total de casos posibles n.

p=\mathrm{Prob}\{S\}=\frac {h}{n}

La probabilidad es un número (valor) que varia entre 0 y 1. Cuando el evento es imposible se dice que su probabilidad es 0, si el evento es cierto y siempre tiene que ocurrir su probabilidad es 1.

La probabilidad de no ocurrencia de un evento está dada por q, donde:

q=\mathrm{Prob}\{no \; S\}=1-\frac {h}{n}

Sabemos que p es la probabilidad de que ocurra un evento y q es la probabilidad de que no ocurra, entonces p + q = 1

Simbólicamente el espacio de resultados, que normalmente se denota por \Omega, es el espacio que consiste en todos los resultados que son posibles. Los resultados, que se denota por \omega_1, \omega_2, etcétera, son elementos del espacio \Omega.

Definición axiomática[editar]

Como se ha adelantado anteriormente la definción axiomática de probabilidad es una extensión de la teoría de la medida, en la que se introducen la noción de independencia relativa. Este enfoque permite reproducir los resultados de la teoría clásica de la probabilidad además de resultados nuevos referidos a la convergencia de variables aleatorias. Además de los procesos estocásticos, el cálculo de Ito y las ecuaciones diferenciales estocásticas.

Variables aleatorias[editar]

Una variable aleatoria es una función medible

X:\Omega\to \mathbb{R} \,

que da un valor numérico a cada suceso elemental \omega \in \Omega.

Probabilidad discreta[editar]

Este tipo de probabilidad, es aquel que puede tomar sólo ciertos valores diferentes que son el resultado de la cuenta de alguna característica de interés. Más exactamente, un problema de probabilidad discreta es un problema definido por un conjunto de variables aleatorias que sólo pueden tomar un conjunto finito o infnito numerable de valores diferentes:

\mathrm{card}[X(\Omega)] \le \aleph_0

donde:

\mathrm{card}[\cdot] designa el cardinal o "número de elmentos" de un conjunto.
X(\Omega) = \{x\in \R| \exists \omega\in\Omega: x=X(\omega) \}, es el conjunto de todos los posibles valores que toma la variable aleatoria.


Probabilidad continua[editar]

Un problema de probabilidad continua es uno en el que aparecen variables aleatorias capaces de tomar valores en algún intervalo de números reales (y por tanto asumir un conjunto no numerable de valores), por lo que continuando con la notación anterior:

\mathrm{card}[X(\Omega)] = \aleph_1 > \aleph_0

Función de distribución de probabilidad[editar]

La distribución de probabilidad se puede definir para cualquier variable aleatoria X, ya sea de tipo continuo o discreto, mediante la siguiene relación:

F_X(x) = \mathrm{Prob}( X \le x ) = \mu_P\{\omega\in \Omega|X(\omega)\le x\}

Para una variable aleatoria discreta esta función no es continua sin constante a tramos (siendo continua por la derecha pero no por la izquierda). Para una variable aleatoria general la función de distribución puede descomponerse en una parte continua y una parte discreta:

F_X(x) = F^c_X(x) + F_X^d(x)

Donde F^c_X(x) es una función absolutamente continua y F_X^d(x) es una función constante a tramos.

Función de densidad de probabilidad[editar]

La función de densidad, o densidad de probabilidad de una variable aleatoria absolutamente continua, es una función a partir de la cual se obtiene la probabilidad de cada valor que toma la variable definida como:

f_X(x) = \frac{dF_x(x)}{dx}

Es decir, su integral en el caso de variables aleatorias continuas es la distribución de probabilidad. En el caso de variables aleatorias discretas la distribución de probabilidad se obtiene a través del sumatorio de la función de densidad. La noción puede generalizarse a varias variables aleatorias.

Véase también[editar]

Bibliografía[editar]

Enlaces externos[editar]