Teorema de descomposición espectral

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemáticas, y más especialmente en álgebra lineal y análisis funcional, el teorema de descomposición espectral, o más brevemente teorema espectral, expresa las condiciones bajo las cuales un operador o una matriz pueden ser diagonalizados (es decir, representadas como una matriz diagonal en alguna base). Se identifica así, un tipo de operadores lineales que pueden representarse como una multiplicación de operadores.

Ejemplos de los operadores a los que se aplica este teorema son los operadores autoadjuntos, o más en general, los operadores normales en espacios de Hilbert.

El Teorema Espectral, proporciona además, una descomposición canónica (llamada descomposición espectral) del espacio vectorial sobre el cual actúa el operador.

Espacio de dimensión finita[editar]

Sea A:

Con el producto interno estándar, usando notación de Dirac, la simetría del operador implica:

 \langle A x \mid y \rangle =  \langle x \mid A y \rangle

para toda pareja de elementos  \left( x, y \right) \in V^2 . Recordemos que un vector propio de un operador A es un vector x distinto de cero tal que Ax = rx. El valor r es el valor propio del vector, y debe ser un escalar.

Teorema: Existe una base ortonormal de V que consiste en los vectores propios de A. Los valores propios correspondientes a cada vector son reales.

Demostración: Asumimos que el cuerpo de escalares para el operador A son los complejos. Vamos a demostrar que los valores propios son reales. Siendo  \lambda uno de los los valores propios:

 \lambda \langle x \mid x \rangle= \langle A x \mid x \rangle = \langle  x \mid A x \rangle = \overline{\lambda} \langle  x \mid x \rangle

\lambda es igual a su conjugado y por tanto debe ser real. Probemos ahora la existencia de la base de vectores propios por inducción sobre la dimensión de V. Para ello, es suficiente demostrar que A tiene al menos un vector propio e distinto de cero. Podemos considerar ahora el espacio K de vectores ortogonales a e. Este es un espacio de dimensión finita. Si llamamos w a los vectores de K, veamos cómo actúa el operador A sobre los w:

 \langle A w \mid e \rangle = \langle  w \mid A e \rangle = \lambda \langle  w \mid e \rangle = 0

A mapea los vectores w sobre K, es decir, al actuar A sobre un vector de K da otro vector de K. Lo que es más, A considerado un operador lineal en K, es también simétrico en K y con esto se completa la demostración.

Queda, sin embargo, por demostrar que A tenga al menos un vector propio. Teniendo en cuenta que, por el Teorema fundamental del álgebra los números complejos son un cuerpo algebraicamente cerrado, la función polinómica p(x) = det(A-xI) tiene por lo menos una raíz r. Esto implica que el operador A-rI no es una matriz invertible y por tanto, mapea un vector e distinto de cero a 0. Este vector e, es un vector propio de A. Esto finaliza la demostración.

El teorema espectral es también válido para operadores simétricos en espacios de dimensión finita con producto interior real.

La descomposición espectral de un operador A que tiene una base ortonormal de vectores propios, se obtiene agrupando todos los vectores que corresponden al mismo valor propio. Esto es

 V_\lambda = \{\,v \in V: A v = \lambda v\,\}.

Estos espacios están definidos invariablemente, no se requiere ninguna elección de valores propios concretos.

Como una consecuencia inmediata del teorema espectral para operadores simétricos obtenemos el teorema de descomposición: V es la suma directa ortogonal de los espacios Vλ

 P_\lambda P_\mu=0 \quad \mbox{if} \lambda \neq \mu

y si λ1,..., λm son los autovalores de A,

A =\lambda_1 P_{\lambda_1} +\cdots+\lambda_m P_{\lambda_m}.

Si A es un operador normal en un espacio de dimensión finita con producto interior, A también tiene una descomposición espectral y el teorema de descomposición se mantiene para A. Los autovalores serán números complejos en general. Estos resultados se convierten directamente en resultados sobre las matrices: Para una matriz normal A, existe una matriz unitaria U tal que

A=U \Sigma U^* \;

donde Σ es la matriz diagonal formada por los valores propios de A. Cualquier matriz que se pueda diagonalizar de esta forma debe ser normal.

Los vectores columna de U son los vectores propios de A y son ortogonales. Si A es una matriz real simétrica, se sigue por la versión real del teorema espectral para operadores simétricos que existe una matriz ortogonal tal que, UAU* es diagonal y todos los valores propios de A son reales.

Véase también[editar]