Algoritmo de Gauss-Newton

De Wikipedia, la enciclopedia libre

En matemáticas, el algoritmo de Gauss-Newton se utiliza para resolver problemas no lineales de mínimos cuadrados. Es una modificación del método de optimización de Newton que no usa segundas derivadas y se debe a Carl Friedrich Gauss.

El problema[editar]

Dadas m funciones f1,..., fm de n parámetros p1,..., pn con mn, queremos minimizar la suma

donde p se refiere al vector de parámetros: p=(p1,..., pn).

El algoritmo[editar]

El algoritmo de Gauss-Newton es un procedimiento iterativo. Esto significa que debemos proporcionar una estimación inicial del vector de parámetros, que denominaremos p0.

Estimaciones posteriores pk para el vector de parámetros son producidas por la relación recurrente:

donde f=(f1,..., fm), y Jf(p) denota el Jacobiano de f en p (nótese que no es necesario que Jf sea cuadrada).

La matriz inversa, en la práctica, nunca se computa explícitamente. En lugar de ello se utiliza

y se computa la actualización de δk resolviendo el sistema lineal

Una buena implementación del algoritmo de Gauss-Newton utiliza también un algoritmo de búsqueda lineal: en lugar de la fórmula anterior para pk+1, se utiliza

donde el número αk es de algún modo óptimo.

Otros algoritmos[editar]

La relación de recurrencia del Método de Newton para minimizar la función S es

donde y denotan el Jacobiano y Hessiano de S respectivamente. Utilizando el método de Newton para minimizar la función

obtenemos la relación recurrente

Podemos concluir que el método de Gauss-Newton es el mismo que el método de Newton, pero ignorando el término de la matriz Hessiana Σ f H(f).

Otros algoritmos utilizados para resolver el problema de los mínimos cuadrados incluyen el Algoritmo de Levenberg-Marquardt y de descenso de gradiente.