Matriz hermitiana

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Una matriz Hermitiana (o Hermítica) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al conjugado del elemento en la j-ésima fila e i-ésima columna, para todos los índices i y j:


   a_{i,j} = \overline{a_{j,i}}

o, escrita con la traspuesta conjugada A*:


   A = A^* \;

Por ejemplo,


   A=
   \begin{bmatrix}
        3 & 2+i \\
      2-i & 1
   \end{bmatrix}

es una matriz hermítica.

Propiedades[editar]

  1. Sea A = B + iC \,, donde A \, es hermitiana y B \, y C \, reales, entonces B \, es simétrica ( B = B^T \,) y C \, antisimétrica (C = -C^T \,).
  2. La inversa de una matriz hermitiana es también hermitiana.
  3. En relación con la propiedad 3, los autovalores de estas matrices son reales.
  4. En una matriz hermitiana, los elementos de la diagonal principal son reales.
  5. La determinante de una matriz hermitiana es un número real.

Diagonalización de Matrices Hermíticas[editar]

Sea A \in \Bbbk^{n \times n} \,\, (\Bbbk = \R \,\, \text{ó} \,\, \C) Hermítica, es decir A = A^{H} \,. Entonces A \, es diagonalizable unitariamente. O sea, se la puede descomponer de la siguiente manera:

A = P \cdot \Delta \cdot P^{T}

En donde:

  1. P \, es una matriz unitaria y el conjunto \operatorname{col}(P)\, es ortonormal y está formado por autovectores de A \, asociados a sus respectivos autovalores. Estos vectores deben ir en orden, respecto de sus autovalores.
  2. \Delta = \operatorname{diag} \left[ \lambda_{1} \quad \cdots \quad \lambda_{n} \right]^{T} una matriz diagonal formada con autovalores de A \, (todos reales)

Propiedades[editar]

  • P \in \Bbbk^{n \times n} es unitaria si y sólo si P \cdot P^{H} = P^{H} \cdot P = I_{n} lo que implica que son ortogonales, es decir, \quad \operatorname{col}_{i}(P) \,\, \bot \,\, \operatorname{col}_{j}(P^{H}) para todo i distinto de j, y si i es igual a j entonces \langle \operatorname{col}_{i}(P), \,\, \operatorname{col}_{i}(P^{H}) \rangle = 1. Donde \langle \cdot , \cdot \rangle es el producto interno canónico en \Bbbk^{n}.
Entonces el conjunto \operatorname{col}(P)\, es una base ortonormal de \Bbbk^{n}\,. Observar que la implicación de que el producto interno de 1 si coinciden los subíndices, implica que \operatorname{fil}(P) \, es un conjunto ortonormal.
Caso particular: cuando la matriz unitaria cumple además P = P^{T} \, (observar que se trata sólo del caso real), entonces ocurre que P \cdot P^{T} = P \cdot P = P^{2} = I_{n}. En este caso la matriz P \, se dice involutiva y está asociada a una reflexión respecto de un plano. Ver transformación de Householder
  • Analicemos el siguiente caso suponiendo A \cdot v = \lambda \cdot v. O sea \lambda \in \Bbbk autovalor de A \, asociado al autovector v \in \Bbbk^{n}:
\overline{\lambda} \langle v,v \rangle = \langle \lambda v, v \rangle = \langle Av, v \rangle = (Av)^{H} \cdot v = v^{H} A^{H} \cdot v = v^{H} A \cdot v = \langle v, Av \rangle = \langle v, \lambda v \rangle = \lambda \langle v, v \rangle
De donde
\overline{\lambda} \langle v,v \rangle = \lambda \langle v, v \rangle \Longleftrightarrow \overline{\lambda} = \lambda \Longleftrightarrow \lambda \in \R
\lambda_{i}\langle v_{i}, v_{j} \rangle = \langle \lambda_{i}v_{i}, v_{j} \rangle = \langle Av_{i}, v_{j} \rangle = v^{H}A^{H}v_{j} = v^{H}Av_{j} = \langle v_{i}, Av_{j} \rangle = \langle v_{i}, \lambda_{j}v_{j} \rangle = \lambda_{j}\langle v_{i}, v_{j} \rangle \,
De donde
\lambda_{i}\langle v_{i}, v_{j} \rangle = \lambda_{j}\langle v_{i}, v_{j} \rangle \Longleftrightarrow (\lambda_{i} - \lambda_{j}) \langle v_{i}, v_{j} \rangle = 0 \Longleftrightarrow v_{i} \,\, \bot \,\, v_{j}

Ejemplos[editar]

1) Sea A = \begin{bmatrix} 1 & 2 \\ 2 & 1 \\ \end{bmatrix} una matriz simétrica (caso particular de Hermítica). Entonces, se ve que \lambda_{1} = 3 \, es autovalor de A \, asociado al autovector v_{1} = [1 \quad 1]^{T}, es decir que el autoespacio asociado a este autovalor es S_{\lambda_{1}} = \operatorname{gen} \Big\{ [1 \quad 1]^{T} \Big\}

El otro autovalor es \lambda_{2} = -1 \, asociado al autovector v_{2} = [-1 \quad 1]^{T}, es decir que el autoespacio asociado a este autovalor es S_{\lambda_{2}} = \operatorname{gen} \Big\{ [-1 \quad 1]^{T} \Big\}

Como se puede ver, ( \,\, v_{1} \,\, , \,\, v_{2} \,\, ) = 0 \,; es decir, son ortogonales. O sea S_{\lambda_{1}} \oplus S_{\lambda_{2}} = \R^{2}

La descomposición de la matriz es:

A = \begin{bmatrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix} \cdot \begin{bmatrix} 3 & 0 \\ 0 & -1 \\ \end{bmatrix} \cdot \begin{bmatrix} \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix}

O sino

A = \begin{bmatrix} -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix} \cdot \begin{bmatrix} -1 & 0 \\ 0 & 3 \\ \end{bmatrix} \cdot \begin{bmatrix} -\frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \\ \end{bmatrix}

Véase también[editar]

Enlaces externos[editar]