Descomposición en valores singulares

De Wikipedia, la enciclopedia libre

En álgebra lineal, la descomposición en valores singulares (o DVS) de una matriz real o compleja es una factorización de la misma con muchas aplicaciones en estadística y otras disciplinas.

Definiciones previas[editar]

Dada una matriz real , los valores propios de la matriz cuadrada, simétrica y semidefinida positiva son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto escalar estándar vemos que:


, o sea que es simétrica.


, es decir es semidefinida positiva.



Por ser una matriz real simétrica, todos sus valores propios son reales —en particular, como es semidefinida positiva, son todos mayores o iguales a cero—. Ver demostración.


Definición[editar]

Sean los valores propios de la matriz ordenados de mayor a menor. Entonces es el -ésimo valor singular de la matriz .

Teorema[editar]

Sea y los valores propios de . Es decir, los primeros valores propios no nulos, ordenados de manera decreciente, y los valores propios nulos.

Sea una base ortonormal de formada por valores propios de —que existe por el teorema espectral—. Entonces:


  1. Los vectores son ortogonales dos a dos y .
  2. es una base ortonormal del subespacio fundamental .
  3. es una base ortonormal del subespacio fundamental .
  4. es decir, el rango de la matriz coincide con la cantidad de valores singulares no nulos.

Demostración[editar]

  1. . Teniendo en cuenta este resultado, .
  2. Como la familia de vectores es ortonormal —en particular, linealmente independiente—, los productos son combinaciones lineales de las columnas de , por lo que el subespacio generado por estos productos está contenido en . Además, los vectores son ortogonales dos a dos —en particular, linealmente independientes—, por lo tanto deducimos que , de donde . Así, teniendo en cuenta lo demostrado en el punto anterior, es una base ortonormal de .
  3. Es claro que si la familia de vectores , está asociada a valores propios nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que —demostración en el último punto de esta lista de propiedades— se ve que es una base ortonormal de
  4. Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que .

Descomposición en valores singulares de una matriz[editar]

Una DVS de es una factorización del tipo con y ortogonales y una matriz formada por los valores singulares de en su diagonal principal ordenados de mayor a menor, y ceros en el resto de entradas.

Teorema[editar]

Toda matriz admite una DVS.

Demostración[editar]

Sean los valores propios de ordenados de esta manera. Sea una base ortonormal de formada por vectores propios de , cada uno asociado —en orden— a un valor propio.


Recordemos que los vectores son ortogonales dos a dos, con . Si llamamos , vemos que:

  • son ortonormales. Entonces, si , podemos completar con vectores hasta formar una base ortonormal de



  • Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices ortogonal y



Claramente y, finalmente, como es una matriz ortogonal, . Esta es la ecuación de una DVS de .

Viendo esta descomposición, es claro que la matriz puede escribirse como combinación lineal de matrices de rango 1 tal que:


Descomposición en valores singulares reducida (DVS reducida)[editar]

Este tipo de descomposición resulta de quedarse sólo con los vectores propios unitarios asociados a los valores singulares no nulos. Las matrices , y entonces son:




Observación: es una matriz diagonal de tamaño .

Propiedades[editar]

Las matrices a continuación denotadas con la letra , son de proyección sobre el subespacio indicado. Las matrices denotadas con la letra son las identidades del orden denotado.







  • es una base ortonormal de


  • es una base ortonormal de


  • es una base ortonormal de


  • es una base ortonormal de


  • implica que .


  • —una diagonalización ortogonal de —.


  • Las matrices simétricas y tienen los mismos valores propios no nulos y, por lo tanto, los valores singulares no nulos de la matriz pueden calcularse usando cualquiera de estas dos. Además, todos los vectores del conjunto son vectores propios de y también, como ya se mencionó, . Esto es fácil de ver, teniendo en cuenta que



Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada , entonces tiene un polinomio característico de grado 8 y tiene un polinomio característico de grado 2. Como los valores propios no nulos de ambas matrices coinciden, el cálculo de valores singulares de se hace más sencillo.


Aplicaciones[editar]

Pseudoinversa[editar]

Para una matriz no cuadrada descompuesta en valores singulares , su pseudoinversa es

donde es la pseudoinversa de , que siendo una matriz diagonal se computa reemplazando todos los valores no nulos de la diagonal por sus recíprocos, y luego trasponiendo.

La pseudoinversa es un camino para resolver cuadrados mínimos lineales.

Solución de norma mínima[editar]

La pseudoinversa obtenida mediante la DVS permite hallar que minimiza la norma . La solución esː

Se aplica para aproximar la solución del sistema de ecuaciones indeterminado .

Solución de ecuaciones lineales homogéneas[editar]

Un conjunto de ecuaciones lineales homogéneas se puede escribir en la forma para una matriz y un vector . Una situación típica consiste hallar no nulo, conociendo . Las soluciones son todos los vectores singulares cuyo valor singular es cero, y toda combinación lineal entre ellos. Si no tiene ningún valor singular cero, entonces no hay solución aparte de .

Minimización de cuadrados mínimos totales[editar]

El problema de minimización por cuadrados mínimos totales consiste en hallar que minimiza la norma bajo la condición :

.

La solución es el vector singular correspondiente al mínimo valor singular no cero.

Ejemplos de cálculo de DVS[editar]

Ejemplo 1[editar]

Si , entonces , cuyos autovalores son y asociados a los autovectores y . Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas).

Entonces, los valores singulares de son y . Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.


Ahora buscamos los vectores que deberán cumplir



Esto es y .


Entonces completamos a una base ortonormal de , .



Nuestras matrices ortogonales son:


y



Y la matriz compuesta por los valores singulares ordenados:



Por lo tanto la DVS de es:


.


Y la DVS reducida es



Observación: No siempre ocurre que como en este caso.

Ejemplo 2[editar]

Sea . Entonces, para hacer más sencillo el proceso, calculamos que tiene un polinomio característico de grado 2. Los autovalores son y asociados a los autovectores de norma unitaria y . Nuestro único valor singular no nulo es .


Observaciones:

  • Es claro que coincide con la cantidad de valores singulares no nulos de la matriz y además .
  • Sabemos que tiene un polinomio característico de grado 3. Sus raíces son , . Veámoslo:


.


Ahora, sabemos que , es decir . Entonces, resulta del único valor singular no nulo: .


Ahora, completamos a una base ortonormal de , . En este ejemplo, nuestras matrices ortogonales son:


y .



.


Y la DVS resulta entonces


.


Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.

Véase también[editar]