Regularización de Tíjonov

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

La Regularización de Tíjonov es el método de regularización usado más comúnmente. En algunos campos, también se conoce como regresión de arista.

En su forma más simple, un sistema de ecuaciones lineales mal determinado:

A\mathbf{x}=\mathbf{b},

donde A es una matriz de dimensiones m \times n, x es un vector vertical con n celdas y b es otro vector vertical con m celdas, es reemplazado por el problema de encontrar un x que minimice

\|A\mathbf{x}-\mathbf{b}\|^2+\alpha^2\|\mathbf{x}\|^2

dado un factor de Tíjonov \alpha > 0 elegido apropiadamente. La expresión \left \| \cdot \right \| representa la norma euclídea. Su uso mejora el condicionamiento del problema, posibilitando su solución por métodos numéricos. Una solución explícita, denotada \hat{x}, es la siguiente:

\hat{x} = (A^{T}A+\alpha^2I)^{-1}A^{T}\mathbf{b}

donde I es la matriz identidad n \times n. Para α = 0, esto se reduce al método de mínimos cuadrados, siempre que (ATA)-1 exista.

Interpretación bayesiana[editar]

Aunque en principio la solución propuesta pueda parecer artificial, y de hecho el parámetro \alpha tiene un carácter algo arbitrario, el proceso se puede justificar desde un punto de vista bayesiano. Nótese que para resolver cualquier problema indeterminado se deben introducir ciertas restricciones adicionales para establecer una solución estable. Estadísticamente se puede asumir que a priori sabemos que x es una variable aleatoria con una distribución normal multidimensional. Sin pérdida de generalidad, tomemos la media como 0 y asumamos que cada componente es independiente, con una desviación estándar \sigma _x. Los datos de b pueden tener ruido, que asumimos también independiente con media 0 y desviación estándar \sigma _b. Bajo estas condiciones, la regularización de Tíjonov es la solución más probable dados los datos conocidos y la distribución a priori de x, de acuerdo con el teorema de Bayes. Entonces, el parámetro de Tíjonov viene dado por \alpha = \frac{\sigma _b}{\sigma _x}...


Regularización de Tíjonov generalizada[editar]

Para distribuciones normales multivariadas de x y su error, se puede aplicar una transformación a las variables que reduce el problema al caso anterior. Equivalentemente, se puede minimizar

\|Ax-b\|_P^2 + \alpha^2\|x-x_0\|_Q^2\,

donde \left \| x  \right \|_P es la norma con peso x^T P x. En la interpretación bayesiana, P es la matriz de covarianza invertida b, x_0 es el valor esperado de x, y \alpha Q es la matriz de covarianza invertida de x.

Esta expresión se puede resolver explícitamente mediante la fórmula

x_0 + (A^T PA + \alpha^2Q)^{-1} A^T P(b-Ax_0).\,


Referencias[editar]

  • Tikhonov AN, 1943, On the stability of inverse problems, Dokl. Akad. Nauk SSSR, 39, No. 5, 195-198
  • Tikhonov AN, 1963, Solution of incorrectly formulated problems and the regularization method, Soviet Math Dokl 4, 1035-1038 English translation of Dokl Akad Nauk SSSR 151, 1963, 501-504
  • Tikhonov AN and Arsenin VA, 1977, Solution of Ill-posed Problems, Winston & Sons, Washington, ISBN 0-470-99124-0.
  • Hansen, P.C., Rank-deficient and Discrete ill-posed problems, SIAM
  • Hoerl AE, 1962, Application of ridge analysis to regression problems, Chemical Engineering Progress, 58, 54-59.
  • Foster M, 1961, An application of the Wiener-Kolmogorov smoothing theory to matrix inversion, J. SIAM, 9, 387-392
  • Phillips DL, 1962, A technique for the numerical solution of certain integral equations of the first kind, J Assoc Comput Mach, 9, 84-97
  • Tarantola A, 2005, Inverse Problem Theory (free PDF version), Society for Industrial and Applied Mathematics, ISBN 0-89871-572-5
  • Wahba, G, 1990, spline Models for Observational Data, SIAM