Regularización de Tíjonov

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

La Regularización de Tíjonov es el método de regularización usado más comúnmente. En algunos campos, también se conoce como regresión de arista.

En su forma más simple, un sistema de ecuaciones lineales mal determinado:

,

donde es una matriz de dimensiones , es un vector vertical con celdas y es otro vector vertical con celdas, es reemplazado por el problema de encontrar un que minimice

dado un factor de Tíjonov elegido apropiadamente. La expresión representa la norma euclídea. Su uso mejora el condicionamiento del problema, posibilitando su solución por métodos numéricos. Una solución explícita, denotada , es la siguiente:

donde es la matriz identidad . Para α = 0, esto se reduce al método de mínimos cuadrados, siempre que (ATA)-1 exista.

Interpretación bayesiana[editar]

Aunque en principio la solución propuesta pueda parecer artificial, y de hecho el parámetro tiene un carácter algo arbitrario, el proceso se puede justificar desde un punto de vista bayesiano. Nótese que para resolver cualquier problema indeterminado se deben introducir ciertas restricciones adicionales para establecer una solución estable. Estadísticamente se puede asumir que a priori sabemos que es una variable aleatoria con una distribución normal multidimensional. Sin pérdida de generalidad, tomemos la media como 0 y asumamos que cada componente es independiente, con una desviación estándar . Los datos de pueden tener ruido, que asumimos también independiente con media 0 y desviación estándar . Bajo estas condiciones, la regularización de Tíjonov es la solución más probable dados los datos conocidos y la distribución a priori de , de acuerdo con el teorema de Bayes. Entonces, el parámetro de Tíjonov viene dado por ...


Regularización de Tíjonov generalizada[editar]

Para distribuciones normales multivariadas de y su error, se puede aplicar una transformación a las variables que reduce el problema al caso anterior. Equivalentemente, se puede minimizar

donde es la norma con peso . En la interpretación bayesiana, es la matriz de covarianza invertida , es el valor esperado de , y es la matriz de covarianza invertida de .

Esta expresión se puede resolver explícitamente mediante la fórmula


Referencias[editar]

  • Tikhonov AN, 1943, On the stability of inverse problems, Dokl. Akad. Nauk SSSR, 39, No. 5, 195-198
  • Tikhonov AN, 1963, Solution of incorrectly formulated problems and the regularization method, Soviet Math Dokl 4, 1035-1038 English translation of Dokl Akad Nauk SSSR 151, 1963, 501-504
  • Tikhonov AN and Arsenin VA, 1977, Solution of Ill-posed Problems, Winston & Sons, Washington, ISBN 0-470-99124-0.
  • Hansen, P.C., Rank-deficient and Discrete ill-posed problems, SIAM
  • Hoerl AE, 1962, Application of ridge analysis to regression problems, Chemical Engineering Progress, 58, 54-59.
  • Foster M, 1961, An application of the Wiener-Kolmogorov smoothing theory to matrix inversion, J. SIAM, 9, 387-392
  • Phillips DL, 1962, A technique for the numerical solution of certain integral equations of the first kind, J Assoc Comput Mach, 9, 84-97
  • Tarantola A, 2005, Inverse Problem Theory (free PDF version), Society for Industrial and Applied Mathematics, ISBN 0-89871-572-5
  • Wahba, G, 1990, spline Models for Observational Data, SIAM