Variables aleatorias independientes e idénticamente distribuidas

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda

En teoría de probabilidad y estadística, un conjunto de variables aleatorias se consideran independientes e idénticamente distribuidas (i.i.d.) si cada variable aleatoria tiene la misma distribución de probabilidad y todas son mutuamente independientes.[1]

La suposición (o requisito) de que un conjunto observaciones sean i.i.d. simplifica las operaciones de muchos métodos estadísticos (véase estadística matemática), por lo que es muy común en la estadística inferencial. Aun así, en aplicaciones prácticas de modelación estadística la suposición puede o no puede ser realista. Para probar qué tan realista es en un conjunto de dato dado, se calcula la autocorrelación, mediante correlogramas y otras pruebas estadísticas.[2]

Esta suposición es fundamental en la forma clásica del teorema del límite central, el cual afirma que la distribución de probabilidad de la media de las variables i.i.d. con varianza finita se acerca una distribución normal.

Generalizaciones[editar]

Muchos resultados de la inferencia estadística que se han demostrado bajo la suposición que las variables aleatorias son i.i.d. han podido ser demostrados también bajo una suposiciones más débiles sobre las distribución de las variables involucradas.

Variables aleatorias intercambiables[editar]

La idea más general qué comparte las propiedades principales de i.i.d. son las llamadas variables aleatorias intercambiables, introducidos por Bruno de Finetti. Esto significa que mientras las variables no pueden ser independientes, las posteriores se comportan como las anteriores, formalmente, cualquier valor de una secuencia finita es tan probableme como cualquier permutación de aquellos, la distribución conjunta es invariante bajo el grupo simétrico.

Proceso de Lévy[editar]

En cálculo estocástico, las variables i.i.d. como un proceso de Lévy en tiempo discreto: cada variable representa un cambio de un tiempo a otro. Por ejemplo, una secuencia de pruebas de Bernoulli está interpretada como el Proceso de Bernoulli. Uno puede generalizar esto para incluir procesos de Lévy en tiempo continuo, y muchos procesos de Lévy pueden ser vistos como casos límites, por ejemplo, el proceso Wiener es el límite del proceso de Bernoulli.

Referencias[editar]

  1. Aaron Clauset. «A brief primer on probability distributions». Santa Fe Institute. 
  2. Le Boudec, Jean-Yves (2010). Performance Evaluation Of Computer And Communication Systems. EPFL Press. pp. 46-47. ISBN 978-2-940222-40-7. Archivado desde el original el 12 de octubre de 2013.