Factorización de Cholesky

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemáticas, la factorización o descomposición de Cholesky toma su nombre del matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva puede ser descompuesta como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una pequeña variación.

Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica y definida positiva, se pueden escoger los factores tales que U es la transpuesta de L, y esto se llama la descomposición o factorización de Cholesky. Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver sistemas de ecuaciones lineales. Cuando es aplicable, la descomposición de Cholesky es dos veces más eficiente que la descomposición LU.

Definición[editar]

En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como

\mathbf{A} = \mathbf{L} \mathbf{L}^{*},

donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L* representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky.

La descomposición de Cholesky es única: dada una matriz Hermitiana positiva definida A, hay una única matriz triangular inferior L con entradas diagonales estrictamente positivas tales que A = LL*. El recíproco se tiene trivialmente: si A se puede escribir como LL* para alguna matriz invertible L, triangular inferior o no, entonces A es Hermitiana y definida positiva.

El requisito de que L tenga entradas diagonales estrictamente positivas puede extenderse para el caso de la descomposición en el caso de ser semidefinida positiva. La proposición se lee ahora: una matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no son únicas en general.

En el caso especial que A es una matriz simétrica definida positiva con entradas reales, L se puede asumir también con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal (valores propios de A), es factorizable como D=\sqrt{D}\sqrt{D}, donde \sqrt{D} es matriz cuya diagonal consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:

A=LU=LDU_{0}=LDL^t = L(\sqrt{D} \sqrt{D})L^t = (L \sqrt{D})(\sqrt{D} L^t)=(L \sqrt{D})(L \sqrt{D})^t = K K^t

La factorización puede ser calculada directamente a través de las siguientes fórmulas (en este caso realizamos la factorizacón superior A=U^ T *U):
u_{ii}^{2}=a_{ii}-\sum_{k=1}^{i-1} u_{ik}^{2} para los elementos de la diagonal principal, y:

u_{ij}=\frac {a_{ij}-\sum_{k=1}^{j-1} u_{ik}u_{jk}}{u_{jj}} para el resto de los elementos. Donde u_{ij} son los elementos de la matriz U.

Aplicaciones[editar]

La descomposición de Cholesky se usa principalmente para hallar la solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y positiva definida, entonces se puede solucionar Ax = b calculando primero la descomposición de Cholesky A = LLT, luego resolviendo Ly = b para y, y finalmente resolviendo LTx = y para x.

Mínimos cuadrados lineales[editar]

Sistemas de la forma Ax = b con A simétrica y definida positiva aparecen a menudo en la práctica. Por ejemplo, las ecuaciones normales en problemas de mínimos cuadrados lineales son problemas de esta forma. Podría ocurrir que la matriz A proviene de un funcional de energía el cual debe ser positivo bajo consideraciones físicas; esto ocurre frecuentemente en la solución numérica de ecuaciones diferenciales parciales.

Simulación de Montecarlo[editar]

La descomposición de Cholesky se usa comúnmente en el método de Montecarlo para simular sistemas con variables múltiples correlacionadas: la matriz de correlación entre variables es descompuesta, para obtener la triangular inferior L. Aplicando ésta a un vector de ruidos simulados incorrelacionados, u produce un vector Lu con las propiedades de covarianza del sistema a ser modelado.

Filtro de Kalman[editar]

Los filtros de Kalman usan frecuentemente la descomposición de Cholesky para escoger un conjunto de puntos sigma. El filtro de Kalman sigue el estado promedio de un sistema como un vector x de longitud n y covarianza dada por una matriz P de tamaño nxn. La matriz P es siempre semidefinida positiva y puede descomponerse como LLT. Las columnas de L puede ser adicionadas y restadas de la media x para formar un conjunto de 2N vectores llamados los puntos sigma. Estos puntos sigma capturan la media y la covarianza del estado del sistema.

Links de interés[editar]

  1. [1] Implementación y evaluación de la Factorización de Cholesky mediante TBB y threads en arquitecturas multicore