Intervalo de confianza

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Las líneas verticales representan 50 construcciones diferentes de intervalos de confianza para la estimación del valor μ.

En estadística, se llama a un par o varios pares de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación mediante tal intervalo.[1]

El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de confianza), mientras que para un intervalo más pequeño, que ofrece una estimación más precisa, aumenta su probabilidad de error.

Para la construcción de un determinado intervalo de confianza es necesario conocer la distribución teórica que sigue el parámetro a estimar, θ [2] . Es habitual que el parámetro presente una distribución normal. También pueden construirse intervalos de confianza con la desigualdad de Chebyshev.

En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un parámetro poblacional θ que sigue una determinada distribución de probabilidad, es una expresión del tipo [θ1, θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de distribución de probabilidad de θ.

Ejemplos[editar]

Intervalo de confianza para la media de una población[editar]

De una población de media \mu y desviación típica \sigma se pueden tomar muestras de n elementos. Cada una de estas muestras tiene a su vez una media (\bar{x}). Se puede demostrar que la media de todas las medias muestrales coincide con la media poblacional:[3] \mu_{\bar{x}} = \mu

Pero además, si el tamaño de las muestras es lo suficientemente grande,[4] la distribución de medias muestrales es, prácticamente, una distribución normal (o gaussiana) con media μ y una desviación típica dada por la siguiente expresión: \sigma_{\bar{x}} = \frac{\sigma}{\sqrt{n}}. Esto se representa como sigue: \bar{X} \sim N(\mu, \frac{\sigma}{\sqrt{n}}). Si estandarizamos, se sigue que: \frac{\bar{X} - \mu}{\frac{\sigma}{\sqrt{n}}}=Z \sim N(0, 1)

En una distribución Z ~ N(0, 1) puede calcularse fácilmente un intervalo dentro del cual caigan un determinado porcentaje de las observaciones, esto es, es sencillo hallar z1 y z2 tales que P[z1 ≤ z ≤ z2] = 1 - α, donde (1 - α)·100 es el porcentaje deseado (véase el uso de las tablas en una distribución normal).

Se desea obtener una expresión tal que P\left[\mu_1 \le \mu \le \mu_2\right] = 1 - \alpha

En esta distribución normal de medias se puede calcular el intervalo de confianza donde se encontrará la media poblacional si sólo se conoce una media muestral (\bar{x}), con una confianza determinada. Habitualmente se manejan valores de confianza del 95 y del 99 por ciento. A este valor se le llamará 1 - \alpha (debido a que \alpha es el error que se cometerá, un término opuesto).

Para ello se necesita calcular el punto X_{\alpha/2} —o, mejor dicho, su versión estandarizada Z_{\alpha/2} o valor crítico— junto con su "opuesto en la distribución" X_{-\alpha/2}. Estos puntos delimitan la probabilidad para el intervalo, como se muestra en la siguiente imagen:

ConfIntervNormalP.png

Dicho punto es el número tal que:

\mathbb{P}[\bar{x} \ge X_{\alpha/2}] = \mathbb{P}[z \ge z_{\alpha/2}] = \alpha/2

Y en la versión estandarizada se cumple que:

z_{-\alpha/2} = -z_{\alpha/2}

Así:

\mathbb{P}\left[-z_{\alpha/2} \le \frac{\bar{x} - \mu}{\frac{\sigma}{\sqrt{n}}} \le z_{\alpha/2}\right] = 1 - \alpha

Haciendo operaciones es posible despejar \mu para obtener el intervalo:

\mathbb{P}\left[\bar{x} - z_{\alpha/2}\frac{\sigma}{\sqrt{n}} \le \mu \le \bar{x} + z_{\alpha/2}\frac{\sigma}{\sqrt{n}}\right] = 1 - \alpha

De lo cual se obtendrá el intervalo de confianza:

(\bar{x} - z_{\alpha/2}\frac{\sigma}{\sqrt{n}}, \bar{x} + z_{\alpha/2}\frac{\sigma}{\sqrt{n}})

Obsérvese que el intervalo de confianza viene dado por la media muestral (\bar{x}) ± el producto del valor crítico Z_{\alpha/2} por el error estándar (\frac{\sigma}{\sqrt{n}}).

Si no se conoce \sigma y n es grande (habitualmente se toma n ≥ 30):[5]

(\bar{x} - z_{\alpha/2}\frac{s}{\sqrt{n}}, \bar{x} + z_{\alpha/2}\frac{s}{\sqrt{n}}), donde s es la desviación típica de una muestra.

Aproximaciones para el valor z_{\alpha/2} para los niveles de confianza estándar son 1,96 para 1 - \alpha = 95% y 2,576 para 1 - \alpha = 99%.[6]

Intervalo de confianza para una proporción[editar]

El intervalo de confianza para estimar una proporción p, conocida una proporción muestral pn de una muestra de tamaño n, a un nivel de confianza del (1-α)·100% es:

(p_n - z_{\alpha/2}\sqrt{\frac{p_n(1-p_n)}{n}}, \; p_n + z_{\alpha/2}\sqrt{\frac{p_n(1-p_n)}{n}})

En la demostración de estas fórmulas están involucrados el Teorema Central del Límite y la aproximación de una binomial por una normal.[7]

Ejemplo práctico[editar]

Margarinefilling.png

Una máquina llena tazas con líquido, y se supone que está ajustada para vertir la cantidad de 250 g. Como la máquina no puede llenar cada taza con exactamente 250 g, el contenido que se añade a cada taza individual presenta cierta variación y se le asigna una variable aleatoria X. Se asume que esta variación se ajusta a una distribución normal de alrededor del porcentaje promedio deseado de 250 g, con una desviación estándar de 2.5 g. Para determinar si la máquina está adecuadamente calibrada, se toma una muestra aleatoria de n = 25 tazas de helado para pesarlas. La medición resultante de sustancia helada es X1, ..., X25, una muestra aleatoria desde  X.

Para tener una apreciación de la expectativa μ, es suficiente con dar una estimación. El estimador adecuado es la media muestral:

\hat \mu=\bar X = \frac{1}{n}\sum_{i=1}^n X_i.

La muestra señala los pesos efectivos x1, ..., x25, con media:

\bar x=\frac {1}{25} \sum_{i=1}^{25} x_i = 250.2\,\text{gramos}.

Al tomar otra muestra de 25 tazas, es esperable, de igual manera, que la masa presente valores como 250.4 o 251.1 gramos. Un valor medio muestral de 280 gramos en cambio, sería extremadamente excepcional si el contenido medio de las tazas está en la práctica cerca de 250 gramos. Hay un intervalo íntegro en torno al valor observado de 250.2 gramos de la media muestral por el que si la media de la población completa efectivamente toma un valor en este rango, los datos observados no podrían ser considerados particularmente inusuales. Tal intervalo se denomina intervalo de confianza para el parámetro μ. ¿Cómo se calcula tal intervalo? Los extremos del intervalo deben calcularse a partir de la muestra para que resulten funciones estadísticas de la muestra X1, ..., X25 y de este modo son variables aleatorias a su vez.

En este caso, se determinará los extremos considerando la media muestral X a partir de la muestra en distribución normal está también normalmente distribuida con la misma expectativa μ, pero con un error estándar de:

\frac {\sigma}{\sqrt{n}}=\frac {2.5~\text{g}}{\sqrt{25}}=0.5\ \text{gramos}

Por estandarización, se obtiene una variable aleatoria:

Z = \frac {\bar X-\mu}{\sigma/\sqrt{n}} =\frac {\bar X-\mu}{0.5}

dependiente del parámetro μ a ser estimado, pero con una distribución normal estándar independiente del parámetro μ. Por lo tanto, es posible hallar números −z y z, independientes de μ, entre los cuales yace Z con probabilidad 1 − α, una medida de cuán confiados queremos estar.

Tomamos 1 − α = 0.95, por ejemplo. Así, tenemos:

\!P(-z\le Z\le z) = 1-\alpha = 0.95.

El número z sigue desde la función de distribución acumulada, en este caso la Función de distribución normal acumulativa:


\begin{align}
\Phi(z) & = P(Z \le z) = 1 - \tfrac{\alpha}2 = 0.975,\\[6pt]
z & = \Phi^{-1}(\Phi(z)) = \Phi^{-1}(0.975) = 1.96,
\end{align}

y se obtiene:


\begin{align}
0.95 & = 1-\alpha=P(-z \le Z \le z)=P \left(-1.96 \le \frac {\bar X-\mu}{\sigma/\sqrt{n}} \le 1.96 \right) \\[6pt]
& = P \left( \bar X - 1.96 \frac{\sigma}{\sqrt{n}} \le \mu \le \bar X + 1.96 \frac{\sigma}{\sqrt{n}}\right)
\end{align}.

En otras palabras, el límite inferior de un intervalo de confianza del 95% es:

Lower\ endpoint = \bar X - 1.96 \frac{\sigma}{\sqrt{n}},

y el superior de tal intervalo es:

Upper\ endpoint = \bar X + 1.96 \frac{\sigma}{\sqrt{n}}.

Con los valores de este ejemplo, el intervalo de confianza es:


\begin{align}
0.95 & = P\left(\bar X - 1.96 \times 0.5 \le \mu \le \bar X + 1.96 \times 0.5\right) \\[6pt]
& = P \left( \bar X - 0.98 \le \mu \le \bar X + 0.98 \right).
\end{align}

Esto podría interpretarse como: con probabilidad del 0.95 encontramos un intervalo de confianza en el que se cumple con el parámetro μ entre los límites estocásticos

\! \bar X - 0{.}98

y

\! \bar X + 0.98.

Esto no implica que hay una probabilidad de 0.95 de encontrar el parámetro μ en el intervalo obtenido usando el valor efectivamente establecido para el valor medio de la muestra.

 (\bar{x}-0.98,\, \bar{x}+0.98).

Sin embargo, cada vez que se repitan las mediciones, darán otro valor para la media X de la muestra. En el 95% de los casos μ estará entre los límites calculados a partir de la media, pero en el 5% de los casos no lo estará. El intervalo de confianza efectivo se calcula anotando los valores de masas de helado medidas en la fórmula. Este intervalo de confianza de 0.95 resulta:

(\bar x - 0.98;\bar x + 0.98) = (250.2 - 0.98; 250.2 + 0.98) = (249.22; 251.18).\,
El segmento vertical representa 50 realizaciones de un intervalo de confianza para μ.

En otras palabras, el intervalo de confianza del 95% está entre el límite inferior de 249.22 g y el superior de 251.18 g.

Como el valor deseado 250 de μ está dentro del intervalo de confianza resultante no hay razón para creer que la máquina no está correctamente calibrada.

El intervalo calculado tiene límites fijos, donde μ podría o no estar allí acotado. Así, este evento tiene probabilidad o 0 o 1. No es posible decir: "con probabilidad (1 − α) el parámetro μ yace en el intervalo de confianza." Sólo sabemos que por repetición en 100(1 − α) % de los casos, μ estará en el intervalo calculado. En 100α% de los casos, sin embargo no sucede. Desafortunadamente, no se conoce en cuáles de los casos esto sucede. Por eso se puede decir: "con nivel de confianza 100(1 − α) %, μ  yace en el intervalo de confianza."

El error máximo se calcula de 0.98 dado que es la diferencia ente el valor en que se conserva la confianza dentro de los límites superior e inferior.

La figura ilustra 50 realizaciones de un intervalo de confianza para una población media dada μ. Si aleatoriamente se selecciona una realización, la probabilidad es del 95% de finalmente haber elegido un an intervalo que contenga el parámetro; sin embargo, podría darse la desafortunada situación de haber elegido la errónea. No se lo sabrá nunca con plena certeza, apanas se puede estar atenido al intervalo.

Véase también[editar]

Referencias[editar]

  1. Rius Díaz, Francisca (octubre de 1997). «8.2. Estimación confidencial». Bioestadística. Métodos y aplicaciones. Málaga: Universidad de Málaga. ISBN 84-7496-653-1. http://www.bioestadistica.uma.es/libro/node100.htm. Consultado el 07-04-2009. 
  2. Guerriero V.. «Power Law Distribution: Method of Multi-scale Inferential Statistics». J. Mod. Math. Fr. (2012). http://www.sjmmf.org/Default.aspx. 
  3. Es una consecuencia del Teorema Central del Límite.
  4. En la práctica se considera normal la distribución si n > 30.
  5. Sotomayor Velasco, Gabriel; Wisniewski, Piotr Marian (2001). «10.2. Intervalos de confianza para medias». Probabilidad y estadística para ingeniería y ciencias. Cengage Learning Editores. p. 230. ISBN 970686136X. http://books.google.es/books?id=0VYkub0HvJwC. Consultado el 20-04-2009. 
  6. Véanse en las tablas de la normal tipificada las entradas correspondientes a los valores 0,95 y 0,99
  7. Rius Díaz, Francisca (octubre de 1997). «8.6.2. Intervalo para una proporción». Bioestadística. Métodos y aplicaciones. Málaga: Universidad de Málaga. ISBN 84-7496-653-1. http://www.bioestadistica.uma.es/libro/node108.htm. Consultado el 24-04-2009. 

Bibliografía[editar]

  • Fisher, R. A. (1956). Statistical Methods and Scientific Inference. Oliver and Boyd, Edinburgh (p. 32).
  • Freund, J. E. (1962). Mathematical Statistics. Prentice Hall, Englewood Cliffs, NJ (pp. 227-228).
  • Hacking, I. (1965) Logic of Statistical Inference. Cambridge University Press, Cambridge.
  • Keeping, E. S. (1962). Introduction to Statistical Inference. D. Van Nostrand, Princeton, NJ.
  • Kiefer, J. (1977). Journal of the American Statistical Association, 72, 789-827.
  • Neyman, J. (1937). Philosophical Transactions of the Royal Society of London A, 236, 333-380.
  • Robinson, G. K. (1975). Biometrika, 62, 151-161.
  • Zar, J. H. (1984). Biostatistical Analysis. Prentice Hall International, New Jersey. pp. 43-45.