Matriz ortogonal

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

Una matriz ortogonal es una matriz cuadrada cuya matriz inversa coincide con su matriz traspuesta. El conjunto de matrices ortogonales constituyen una representación lineal del grupo ortogonal \scriptstyle O(n,\R).

Geométricamente las matrices ortogonales representan transformaciones isométricas en espacios vectoriales reales[1] (o más exactamente espacios de Hilbert reales) llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfismos internos del espacio vectorial en cuestión. En el caso real dichas transformaciones pueden ser rotaciones, reflexiones especulares o inversiones y son usadas extensivamente en computación gráfica. Por sus propiedades, también son usadas para el estudio de ciertos fibrados y en física se las usa en el estudio del movimiento de cuerpos rígidos y en la formulación de ciertas teorías de campos.

Definición[editar]

Sea n un número natural y sea A una matriz cuadrada n por n, con entradas reales. Se dice que la matriz es ortogonal si:

A\cdot A^t = \mathbb{I}

donde A^t\; representa la matriz traspuesta de A\; e \mathbb{I} representa la matriz identidad.

Ejemplos[editar]

Supongamos que la matriz de números reales


M= \begin{pmatrix}
a & b\\
c & d
\end{pmatrix},

es ortogonal y su determinante es +1 ó -1.


\begin{pmatrix}
a & b\\
c & d
\end{pmatrix}

\begin{pmatrix}
a & c\\
b & d
\end{pmatrix}
=
\begin{pmatrix}
1 & 0\\
0 & 1
\end{pmatrix} 
,

Por lo que:  a^2+b^2=1 , \quad    ac + bd = 0  ,\quad  c^2+d^2=1

Así que los números a, b , c y dsatisfacen además la propiedad que la suma de sus cuadrados vale 1. Por lo tanto, existen un par de números reales \theta y \phi para los cuales

 a=\cos\theta\quad b=\sin\theta \quad b \quad c=sin\phi \quad d=cos\phi.

Por lo tanto, sustituyendo en  ac + bd = 0 queda: cos\theta sin\phi + sin\theta cos\phi =0


Y  tan\phi=-tan \theta Entonces, se cumple que  sin\phi =-sin\theta \quad o \quad cos\phi= -cos\theta

Concluimos que: toda matriz ortogonal de tamaño 2 puede escribirse como

M_1 = \begin{pmatrix} \cos\theta & \sin\theta\\ -\sin\theta & \cos\theta \end{pmatrix}

con \theta real y

M_2 = \begin{pmatrix} \cos\phi & \sin\phi\\ \sin\phi & -\cos\phi \end{pmatrix}
con \phi real

Caracterización[editar]

Sea A una matriz ortogonal n por n. Sean \mathbf{v}_1, \mathbf{v}_2, \cdots \mathbf{v}_n los n vectores fila de la matriz. En término de estos vectores, es muy fácil expresar los elementos de la matriz que resulta de multiplicar A por su transpuesta:

(A\cdot A^t)_{ij} = \mathbf{v}_i\cdot\mathbf{v}_j = \delta_{ij} = 
\begin{cases} 
  1  & \mbox{si }i = j, \\
  0, & \mbox{si }i \ne j
\end{cases}

De modo que los vectores fila de una matriz ortogonal forman un conjunto de n vectores ortonormales. Puesto que la ecuación

A^t\cdot A = \mathbb{I}

también se verifica, tenemos que los vectores columna de la matriz A también forman un conjunto ortonormal de vectores. Como el recíproco de todo esto también es cierto, tenemos

Una matriz real A es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Es en este sentido que se dice que se ha hecho una caracterización de las matrices ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y columna para determinar si dicha matriz es o no ortogonal.

Propiedades[editar]

  • De la definición, es inmediato que si una matriz es ortogonal, la matriz es no singular o invertible y su transpuesta coincide con su inversa
  • El determinante de una matriz ortogonal A es +1 ó -1. En efecto, de las propiedades del determinante tenemos
\det(A\cdot A^t) = \det A\ \det A^t = \det A\ \det A = (\det A)^2 = \det\mathbb{I} = 1,

y por tanto,

\det A = \pm 1.
  • El conjunto de matrices nxn ortogonales, junto con la operación de producto de matrices es un grupo llamado grupo ortogonal O(n). Supongamos que A y B son matrices ortogonales y sea C igual al producto de A por B. Usando las propiedades del producto de matrices, tenemos

\begin{align}
C\cdot C^t &= (A\cdot B)\cdot(A\cdot B)^t = (A\cdot B)\cdot(B^t\cdot A^t)\\
           & = A\cdot ( B\cdot B^t)\cdot A^t = A\cdot \mathbb{I}\cdot A^t = A \cdot A^t = \mathbb{I},
\end{align}
y así, el producto de matrices ortogonales es una matriz ortogonal.
  • En teoría de grupos, al grupo de matrices ortogonales n por n con coeficientes en el cuerpo \mathbb{K} se denomina grupo ortogonal de dimensión n y se representa con \mathrm{O}(n,\mathbb{K}). En particular el subgrupo formado por las matrices ortogonales de determinante +1, se llama grupo especial ortogonal y se le representa con \mathrm{SO}(n,\mathbb{K}). Entre las matrices ortogonales se encuentran las matrices de rotación y las de permutación. Cuando el cuerpo es el de los reales \mathbb{K} =\R entonces se escribe simplemente \mathrm{O}(n):=\mathrm{O}(n,\R) y \mathrm{SO}(n):=\mathrm{SO}(n,\R).

Notas[editar]

  1. Se sobreentiende que al espacio vectorial real, se le ha dotado de un producto interno

Véase también[editar]

  • Para profundizar sobre este tema y en general sobre álgebra, pude consultar
G. Birkhoff, S MacLane, Álgebra Moderna, ed. Vicens-Vives, Madrid 1980. ISBN 84-316-1226-6