Propagación de errores

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En Estadística, la propagación de errores (o propagación de incertidumbre) es el efecto de variables de incertidumbre (o errores) en la incertidumbre de una función matemática basada en ellos. Cuando las variables son los valores de mediciones experimentales tienen incertidumbre debido a la medición de limitaciones (por ejemplo, instrumento de precisión), que se propagan a la combinación de variables en la función.

La incertidumbre es normalmente definida por el error absoluto. La incertidumbre también puede ser definida por el error relativo Δx/x, que usualmente es escrito como un porcentaje.

Más comúnmente, el error en una cantidad, \Delta x, está dado por la desviación estándar, \sigma. La desviación estándar es la raíz cuadrada positiva de la varianza, \sigma^2. El valor de una cantidad y su error son, a menudo, expresados como x\pm \Delta x. Si la distribución de probabilidad estadística de la variable es conocida o puede ser asumida, es posible derivar el intervalo de confianza para describir la región dentro de la cual el valor verdadero de la variable puede ser encontrado. Por ejemplo, el intervalo de confianza de 68% de una variable perteneciente a una distribución normal es ± una desviación estándar del valor, esto es, existe un 68% de probabilidad que el valor verdadero se encuentre en la región x \pm \sigma. Si las variables están correlacionadas, entonces la covarianza debe ser tomada en cuenta.

Combinaciones lineales[editar]

Sea f_k(x_1,x_2,\dots,x_n) un conjunto de k funciones que son combinaciones lineales de n variables x_1,x_2,\dots,x_n con coeficientes de combinación A_{1k},A_{2k},\dots,A_{nk}, (k=1..m).

f_k=\sum_i^n A_{ik} x_i: \mathbf {f=A^Tx}\,

y sea la matriz de covarianza en x denotada por \mathbf {M^x}\,.


{\mathbf{M^x}} = 
\begin{pmatrix}
   \sigma^2_1 & \text{COV}_{12} & \text{COV}_{13} & \dots \\ 
   \text{COV}_{12} & \sigma^2_2 & \text{COV}_{23} & \dots\\ 
   \text{COV}_{13} & \text{COV}_{23} & \sigma^2_3 & \dots \\
\vdots & \vdots & \vdots & \ddots \\
\end{pmatrix}

Entonces, la matriz de covarianaza \mathbf M^f\,, de f está dada por

M^f_{ij}= \sum_k^n \sum_l^n A_{ik} M^x_{kl} A_{lj}: \mathbf{ M^f=A^T M^x A}.

Esta es la expresión más general para la propagación del error de un conjunto de variables a otro. Cuando los errores en x no están correlacionados, la expresión general se simplifica a

M^f_{ij}= \sum_k^n  A_{ik} \left(\sigma^2_k \right)^x A_{kj}.

Obsérvese que, incluso aunque los errores en x puedan estar no correlacionados, sus errores en f siempre lo están. Las expresiones generales para una función simple, f, son un poco más sencillas.

f=\sum_i^n a_i x_i: f=\mathbf {a^Tx}\,
\sigma^2_f= \sum_i^n \sum_j^n a_i M^x_{ij} a_j= \mathbf{a^T M^x a}

Cada término de covarianza, M_{ij} puede ser expresado en términos del coeficiente de correlación \rho_{ij}\, por M_{ij}=\rho_{ij}\sigma_i\sigma_j\,, con lo que una expresión alternativa para la varianza de f es

\sigma^2_f= \sum_i^n a_i^2\sigma^2_i+\sum_i^n \sum_{j (j \ne i)}^n a_i a_j\rho_{ij} \sigma_i\sigma_j.

En el caso que las variables x estén no correlacionadas, esto se simplifica más aún a

\sigma^{2}_{f}= \sum_i^n a_{i}^{2}\sigma^{2}_{i}.

Combinaciones no lineales[editar]

Cuando f es un conjunto de una combinación no lineal de las variables x, generalmente debe ser linealizada por aproximación a una expansión de la serie de Taylor de primer orden, aunque en algunos casos pueden derivarse fórmulas exactas que no dependen de la expansión.[1]

f_k \approx f^0_k+  \sum_i^n \frac{\partial f_k}{\partial {x_i}} x_i

Donde \frac{\partial f_k}{\partial x_i} denota la derivada parcial de fk con respecto a la variable i-ésima. Puesto que f0k es una constante, no contribuye al error en f. En consecuencia, la propagación del error sigue el caso lineal, visto anteriormente, pero reemplazando los coeficientes lineales, Aik y Ajk por las derivadas parciales, \frac{\partial f_k}{\partial x_i} y \frac{\partial f_k}{\partial x_j}.

Ejemplo[editar]

Cualquier función no lineal, f(a,b), de dos variables, a y b, puede ser expandida como

f\approx f^0+\frac{\partial f}{\partial a}a+\frac{\partial f}{\partial b}b

de donde se tiene

\sigma^2_f=\left(\frac{\partial f}{\partial a}\right)^2\sigma^2_a+\left(\frac{\partial f}{\partial b}\right)^2\sigma^2_b+2\frac{\partial f}{\partial a}\frac{\partial f}{\partial b}COV_{ab}.

En el caso particular que f=ab\!, \frac{\partial f}{\partial a}=b, \frac{\partial f}{\partial b}=a. Entonces

\sigma^2_f=b^2\sigma^2_a+a^2 \sigma_b^2+2abCOV_{ab}

o

\left(\frac{\sigma_f}{f}\right)^2=\left(\frac{\sigma_a}{a}\right)^2+\left(\frac{\sigma_b}{b}\right)^2+2\left(\frac{\sigma_a}{a}\right)\left(\frac{\sigma_b}{b}\right)\rho_{ab}.

Advertencias[editar]

La estimación de errores para funciones no lineales está sesgada debido al uso de series de expansión truncadas. La extensión de este sesgo depende de la naturaleza de la función; por ejemplo, el sesgo en el error calculado para log x se incrementa si x aumenta, dado que la expansión de 1+x es una buena aproximación solo si x es pequeña.

En aplicaciones de data correspondiente, es a menudo posible asumir que los errores de medida no están correlacionados; sin embargo, los parámetros derivados de estas mediciones, tales como parámetros Mínimos cuadrados, estarán correlacionados. Por ejemplo, en una regresión lineal, los errores en la pendiente y la intercepción estarán correlacionados y esta correlación debe ser tomada en cuenta cuando se derive el error en un valor calculado.

y=mz+c: \sigma^2_y=z^2\sigma^2_m+\sigma^2_c+2z\rho \sigma_m\sigma_c

En el caso especial de la inversa 1/B donde B=N(0,1), la distribución es una distribución de Cauchy y no hay una varianza definible. Para tales distribuciones de ratio, puede haber probabilidades definidas para intervalos que pueden ser definidos o bien por simulación Monte Carlo o, en algunos casos, usando la transformación Geary-Hinkley.[2]

Fórmulas de ejemplo[editar]

Esta tabla muesta las varianzas de funciones simples de las variables reales A,B\, con desviaciones estándar \sigma_A, \sigma_B\,, coeficiente de correlación \rho_{AB}\, y constantes de valores reales, conocidas precisamente, a,b\,.

Función
f = aA\, \sigma_f^2 = a^2 \sigma_A^2\,
f = aA \pm bB \sigma_f^2 = a^2\sigma_A^2 +b^2 \sigma_B^2\pm2abCOV_{AB}\,
f = aAB\, \left(\frac{\sigma_f}{f}\right)^2 = \left(\frac{\sigma_A}{A}\right)^2 + \left(\frac{\sigma_B}{B}\right)^2+2 \frac{\sigma_A}{A} \frac{\sigma_B}{B} \rho_{AB}
f = a\frac{A}{B} \left(\frac{\sigma_f}{f}\right)^2 = \left(\frac{\sigma_A}{A}\right)^2 + \left(\frac{\sigma_B}{B}\right)^2-2 \frac{\sigma_A}{A} \frac{\sigma_B}{B} \rho_{AB}
f = aA^{\pm b} \, \frac{\sigma_f}{f} = b \frac{\sigma_A}{A}
f = a \ln(\pm bA) \, \sigma_f = a \frac{\sigma_A}{A}
f = a e^{\pm bA} \, \frac{\sigma_f}{f} =b\sigma_A
f = a^{\pm bA} \, \frac{\sigma_f}{f} =b\ln a \sigma_A

Para variables no correlacionadas, los términos de covarianza son cero. Puede derivarse expresiones para funciones más complicadas por combinación de funciones más simples. Por ejemplo, la multiplicación repetida, asumiendo ninguna correlación, conduce a:

f = AB(C): \left(\frac{\sigma_f}{f}\right)^2 = \left(\frac{\sigma_A}{A}\right)^2 + \left(\frac{\sigma_B}{B}\right)^2+ \left(\frac{\sigma_C}{C}\right)^2.

Derivadas parciales[editar]

Dados X=f(A, B, C, \dots)

Error Absoluto Varianza
\Delta X=\left |\frac{\partial f}{\partial A}\right |\cdot \Delta A+\left |\frac{\partial f}{\partial B}\right |\cdot \Delta B+\left |\frac{\partial f}{\partial C}\right |\cdot \Delta C+\cdots \sigma_X^2=\left (\frac{\partial f}{\partial A}\sigma_A\right )^2+\left (\frac{\partial f}{\partial B}\sigma_B\right )^2+\left (\frac{\partial f}{\partial C}\sigma_C\right )^2+\cdots[3]

Ejemplos[editar]

Función tangente inversa[editar]

Se puede calcular la propagación de la incertidumbre para la función tangente inversa como ejemplo del uso de derivadas parciales para la propagación del error.

Definiendo

f(\theta) = \arctan \theta,

donde \sigma_\theta es la incertidumbre absoluta en la medida de \theta.

La derivada parcial de f(\theta) con respecto a \theta es

\frac{\partial f}{\partial \theta} = \frac{1}{1+\theta^2}.

En consecuencia, la incertidumbre propagada es

\sigma_{f} = \frac{\sigma_\theta}{1+\theta^2},

donde \sigma_f es la incertidumbre absoluta propagada.

Medición de la resistencia[editar]

Una aplicación práctica es un experimento en el que se mide la corriente, I, y el voltaje de un resistor con el fin de determinar la resistencia, R, usando la ley de Ohm, R = V / I.

Dadas las variables medidas con sus incertidumbres, I±ΔI y V±ΔV, la incertidumbre en la cantidad calculada, ΔR, es

\Delta R = \left|\frac{\Delta V}{I}\right|+\left|\frac{V}{I^2}\Delta I\right|.

Referencias[editar]

  1. Leo Goodman (1960). «On the Exact Variance of Products». Journal of the American Statistical Association 55 (292):  pp. 708–713. doi:10.2307/2281592. http://links.jstor.org/sici?sici=0162-1459(196012)55%3A292%3C708%3AOTEVOP%3E2.0.CO%3B2-3. 
  2. Jack Hayya, Donald Armstrong y Nicolas Gressis (July 1975). «A Note on the Ratio of Two Normally Distributed Variables». Management Science 21 (11):  pp. 1338–1341. http://links.jstor.org/sici?sici=0025-1909(197507)21%3A11%3C1338%3AANOTRO%3E2.0.CO%3B2-2. 
  3. [Lindberg] (05-10-2009). «Uncertainties and Error Propagation» (en eng). Uncertainties, Graphing, and the Vernier Caliper págs. 1. Rochester Institute of Technology. Archivado desde el original el 2004-11-12. Consultado el 20-04-2007. «The guiding principle in all cases is to consider the most pessimistic situation.».

Enlaces externos[editar]

Véase también[editar]