Matriz diagonalizable

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En álgebra lineal, una matriz cuadrada "A" se dice que es diagonalizable si es semejante a una matriz diagonal. Es decir, si mediante un cambio de base puede reducirse a una forma diagonal. En este caso, la matriz podrá descomponerse de la forma A = P^{-1}DP. En donde "P" es una matriz invertible cuyos vectores columna son vectores propios de A, y D es una matriz diagonal formada por los valores propios de A.

Si la matriz A es semejante ortogonalmente a una matriz diagonal, es decir, si la matriz P es ortogonal se dice entonces que la matriz A es diagonalizable ortogonalmente, pudiendo escribirse como A = PDP^{t}. El teorema espectral garantiza que cualquier matriz cuadrada simétrica con coeficientes reales es ortogonalmente diagonalizable. En este caso P está formada por una base ortonormal de vectores propios de la matriz siendo los valores propios reales. La matriz P es por tanto ortogonal y los vectores filas de P^{-1} son los vectores columnas de P.

Definición[editar]

Sea \mathbf{A} \in M^{n \times n}(\mathbb{K}) una matriz cuadrada con valores en un cuerpo \mathbb{K}, se dice que la matriz A es diagonalizable si, y sólo si, A se puede descomponer de la forma:

\mathbf{A} = \mathbf{P D P}^{-1}

Donde:

  • \mathbf{D} es una matriz diagonal cuya diagonal principal está formada por los elementos de \sigma(\mathbf{A}), apareciendo cada uno tantas veces como indique su multiplicidad algebraica, siendo \sigma(\mathbf{A}) el espectro de \mathbf{A}, es decir, el conjunto de autovalores de la matriz \mathbf{A}:

 \sigma(\mathbf{A}) = \big\{ \lambda_i \in \mathbb{K}| \mathbf{Av} = \lambda_i \mathbf{v} \quad \forall i = 1,2,...,n \big\}

  • \mathbf{P} es la matriz cuyas columnas son los vectores que constituyen una base del subespacio propio asociado a cada \lambda_i\, siguiendo el orden establecido en D, esto es, los vectores que forman el núcleo de la matriz (A - \lambda_i I):

\mathbf{P} = (v_1 | v_2 | ... | v_n ), \quad v_j \in \mbox{ker}(\mathbf{A} - \lambda_i \mathbf{I}) \forall i,j = 1,...,n

Endomorfismo diagonalizable[editar]

Un endomorfismo de espacio vectorial (aplicación lineal de un espacio vectorial en sí mismo) se dice diagonalizable por similaridad (o simplemente diagonalizable) si existe una base en la que su matriz asociada sea una matriz diagonal. Sin embargo la diagonalización no está asegurada, es decir no es posible decir que todo endomorfismo sea diagonalizable. La importancia de la diagonalización nos motiva a obtener una base en la que la matriz asociada a un endomorfismo no diagonalizable sea más simple aunque no diagonal. Para ello se seguirán las mismas técnicas que para diagonalización, usando la teoría sobre autovalores y autovectores (también llamados valores y vectores propios o en inglés eigenvalues y eigenvectors). Recordemos que dado un operador lineal T:V\rightarrow V se dice que W subespacio de V es T-invariante si \forall u \in W se tiene que T(u)\in W

Aplicaciones[editar]

Diagonalizar una matriz es muy importante en el Álgebra Lineal, pues se cumple lo siguiente:

\mathbf{A}^p = \mathbf{P} \mathbf{D}^p \mathbf{P}^{-1}

facilitando mucho el cálculo de las potencias de \mathbf{A}, dado que siendo D una matriz diagonal, el cálculo de su p-ésima potencia es muy sencillo:

\mathbf{D}^p =
\begin{pmatrix}
{d_1}^p & 0 & \dots & 0 \\
0 & {d_2}^p & \dots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \dots & {d_n}^p \end{pmatrix}

Ejemplos[editar]

Diagonalización de una matriz[editar]

Una matriz es diagonalizable si es cuadrada y el número de valores propios es igual al de filas o columnas de la matriz. "Diagonalizar una matriz" se reduce a encontrar sus vectores y valores propios. Tomemos la matriz:

\mathbf{A} = \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix}


 \mathbf{A} = \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix} \Longrightarrow p(\lambda) = det(A-\lambda I_n) =  \begin{vmatrix}1-\lambda & 2 \\ 3 & 2-\lambda \end{vmatrix} = (1-\lambda)(2-\lambda)-6 = \lambda^2-3\lambda -4

Se aplica el teorema de Cayley-Hamilton:

 p(A) = 0 \Longrightarrow A^2 -3A -4I_2 = 0 \Longrightarrow A^2 = 3A + 4I_2

Por ejemplo, vamos a calcular A^2 para ver si se cumple:

 \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix}^2 = 3 \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix} + 4 \begin{pmatrix} 1 & 0 \\ 0 & 1\end{pmatrix} \Longrightarrow \begin{pmatrix} 7 & 6 \\ 9 & 10 \end{pmatrix} = \begin{pmatrix} 7 & 6 \\ 9 & 10 \end{pmatrix}

y veamos que es diagonalizable:

 \lambda^2 -3\lambda -4 = ( \lambda +1)(\lambda -4) = 0 \Longrightarrow \lambda_1 = -1 \wedge \lambda_2 = 4

  • Así \mathbf{A} es una matriz 2 por 2 con 2 valores propios diferentes, entonces se dice que es diagonizable.Si queremos diagonalizar \mathbf{A} necesitamos calcular los correspondientes vectores propios. Ellos son:

\mathbf{v}_1=\begin{bmatrix} 1  \\ -1 \end{bmatrix},\qquad
\mathbf{v}_2=\begin{bmatrix} 2  \\ 3 \end{bmatrix}

Uno podría verificar fácilmente esto mediante:

\mathbf{Av}_k = \lambda_k \mathbf{v}_k

 (A-\lambda_1 I_2)V_1 = 0 \wedge (A-\lambda_2 I_2)V_2 = 0

  • Ahora, \mathbf{P} es la matriz invertible con los vectores propios de \mathbf{A} como columnas:

\mathbf{P}=\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} con inversa \mathbf{P}^{-1}=
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix}

  • Hallemos ahora la matriz diagonal, usando esta matriz P como sigue:

\mathbf{A}=\mathbf{PDP}^{-1} \Leftrightarrow \mathbf{P}^{-1}\mathbf{AP} = \mathbf{D}

  • Realizamos el cálculo introduciendo los datos:

\mathbf{D}=
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} 
\begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix} 
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} =
\begin{pmatrix} \frac{-3}{5} & \frac{2}{5} \\ \frac{4}{5} & \frac{4}{5} \end{pmatrix}\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} =
\begin{pmatrix} -1 & 0 \\ 0 & 4 \end{pmatrix}

  • Luego resulta que existen matrices \mathbf{P} y \mathbf{D} tales que

\mathbf{A}=\mathbf{PDP}^{-1} cumpliendo \mathbf{P} y \mathbf{D} los requisitos pedidos al principio, y por tanto la matriz \mathbf{A} es diagonalizable.

Potencias de una matriz diagonalizable[editar]

Podemos calcular, por ejemplo, la séptima potencia de la matriz anterior:

\mathbf{A}^7 = \mathbf{P}\mathbf{D}^7\mathbf{P}^{-1} =
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}
\begin{pmatrix} -1^7 & 0 \\ 0 & 4^7 \end{pmatrix}
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} = \begin{pmatrix} \frac{-3+2\cdot 4^7}{5} & \frac{2+2\cdot 4^7}{5} \\ \frac{3+3\cdot 4^7}{5} & \frac{-2+3\cdot 4^7}{5} \end{pmatrix} = \begin{pmatrix} 6553 & 6554 \\ 9831 & 9830 \end{pmatrix}

Para todo n \in \mathbf{N} se cumple:

 A = PDP^{-1} \Longrightarrow A^n = PD^n P^{-1}

Por tanto, para el ejemplo anterior:

 \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix}^n = \begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}\begin{pmatrix} -1 & 0 \\ 0 & 4 \end{pmatrix}^n\begin{pmatrix} 3/5 & -2/5 \\ 1/5 & 1/5 \end{pmatrix} \Longrightarrow \begin{pmatrix} 1 & 2 \\ 3 & 2 \end{pmatrix}^n = \begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix} \begin{pmatrix} (-1)^n & 0 \\ 0 & 4^n \end{pmatrix}\begin{pmatrix} 3/5 & -2/5 \\ 1/5 & 1/5 \end{pmatrix}

 A^n =\frac{1}{5} \begin{pmatrix} 3(-1)^n + 2 \cdot 4^n & -2(-1)^n + 2 \cdot 4^n \\ -3(-1)^n + 3 \cdot 4^n & 2(-1)^n + 3 \cdot 4^n \end{pmatrix}

Función de una matriz diagonalizable[editar]

No sólo pueden calcularse, potencias de una matriz, sino cualquier función que esté definida sobre el espectro de la matriz. Por ejemplo puede calcularse la exponencial de la matriz anterior como: \begin{cases} e^\mathbf{A} = \sum_{k=0}^\infty \frac{\mathbf{A}^k}{k!} \\
e^\mathbf{A} = \mathbf{P}e^\mathbf{D}\mathbf{P}^{-1} = 
\begin{pmatrix} 1 & 2 \\ -1 & 3 \end{pmatrix}
\begin{pmatrix} e^{-1} & 0 \\ 0 & e^{4} \end{pmatrix}
\begin{pmatrix} \frac{3}{5} & \frac{-2}{5} \\ \frac{1}{5} & \frac{1}{5} \end{pmatrix} =  
\frac{1}{5} \begin{pmatrix} 3e^{-1}+2e^{4} & -2e^{-1}+2e^{4} \\
-3e^{-1}+3e^{4} & 2e^{-1}+3e^{4} \end{pmatrix} \end{cases}

Matrices no diagonalizables[editar]

No todas las matrices cuadradas son diagonalizables, pero existen procedimientos similares para hallar matrices \mathbf{P} invertibles y matrices \mathbf{J} diagonales a bloques de tal modo que

\mathbf{A}=\mathbf{PJP}^{-1}

ofreciendo también soluciones o atajos para resolver los problemas que requieren de la diagonalización de una matriz (ver Forma canónica de Jordan).

Teoremas sobre matrices diagonalizables[editar]

  • Toda matriz simétrica de coeficientes reales es diagonalizable y sus valores propios son reales.
  • Dadas dos matrices diagonalizables A y B, son conmutables (AB = BA) si y solo si son simultáneamente diagonalizables (comparten la misma base ortonormal).

Referencias[editar]

Bibliografía[editar]

  • Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis. Cambridge University Press. ISBN 978-0-521-38632-6.