Matriz invertible

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que:  A\cdot A^{-1} = A^{-1}\cdot A = I_{n} , donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es nulo. La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Ejemplos[editar]

Matriz de dos filas (matriz adjunta)[editar]

Dada una matriz de 2x2 con determinante no nulo:

\mathbf{A}^{-1} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} = \frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}

Está definida siempre y cuando ad-bc \ne 0. Así por ejemplo la inversa de la matriz

    \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix} \mapsto \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}^{-1} = \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}, ya que  \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}  \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}= \begin{bmatrix}  1 & 0 \\  0 & 1 \end{bmatrix}

Dada una matriz de 3x3 con determinante no nulo:

\mathbf{A}^{-1} = \begin{bmatrix}
a & b & c\\ d & e & f \\ g & h & i\\
\end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\, A & \, B & \,C \\ \, D & \, E & \, F \\ \, G & \, H & \, I\\
\end{bmatrix}^T =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\, A & \, D & \,G \\ \, B & \, E & \,H \\ \, C & \,F & \, I\\
\end{bmatrix}


\begin{matrix}
A = (ei-fh)  & D = -(bi-ch) & G = (bf-ce)  \\
B = -(di-fg) & E = (ai-cg)  & H = -(af-cd) \\
C = (dh-eg)  & F = -(ah-bg) & I = (ae-bd)  \\
\end{matrix}

Propiedades de la matriz inversa[editar]

  • La inversa de una matriz, es única.
  • La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:
\left  (A \cdot B  \right ) ^{-1} = {B}^{-1} \cdot {A}^{-1}
  • Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
\left(A^{T}\right)^{-1} = \left(A^{-1}\right)^{T}
  • Y, evidentemente:
\left(A^{-1}\right)^{-1} = A
  • Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:
{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \operatorname{adj} (A) \

donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \operatorname{adj}{(A)} \ es la matriz de adjuntos de A, entendida como a la matriz de cofactores traspuesta. (Ver la explicación de la diferente manera de entender el término adjunto[1] [2] [3] [4] [5] en el artículo matriz de adjuntos).

  • El conjutno de matrices de nxn con componentes sobre el cuerpo \mathbf{K} que admiten inversa, con el producto de matrices, tiene una estructura isomorfa al grupo lineal \text{GL}(n,\mathbf{K}) de orden n. En este grupo la operación de inversa es un automorfismo (\cdot)^{-1}: \text{GL}(n,\mathbf{K}) \to \text{GL}(n,\mathbf{K}).

Demostración de la unicidad de la inversa[editar]

Supongamos que B y C son inversas de A

 AB=BA=I, \quad\text{y} \quad AC=CA=I

Multiplicando ambas relaciones por C

 (BA)C=IC=C, \quad\text{y} \quad (BA)C=B(AC)=BI=B

De modo que B=C y se prueba que la inversa es única.

Demostración del criterio de inversibilidad de las matrices cuadradas[editar]

Se probará la doble implicación.

Suficiencia (\Rightarrow)[editar]

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene

\det\left(AB\right)=\det\left(BA\right)=\det\left(I\right)

usando la propiedad \det(I) = 1

\det\left(A\right)\det\left(B\right)=1

Por lo tanto, \det(A) es distinto de cero.

\det\left(A\right)\neq0

Necesidad (\Leftarrow)[editar]

Suponiendo que el determinante de A es distinto de cero, sea a_{ij} es el elemento ij de la matriz  A y sea A_{ij} la matriz A sin la fila i y la columna j (comúnmente conocida como j-ésimo menor de A). Entonces

 \det(A)= \sum_{i=1}^n (-1)^{i+j}a_{ij}\det(A_{ij})

Sea k\neq j, entonces

 \sum_{i=1}^n (-1)^{i+j}a_{ik}\det(A_{ij})=0

Esta afirmación es válida por propiedades de los determinantes, pues la parte izquierda de la relación es el determinante de la matriz A con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces

 \delta_{jk}\det\left(A\right)= \sum_{i=1}^n (-1)^{i+j}\det\left(A_{ij}\right)a_{ik}

donde \delta_{jk} = 1 cuando j=k y \delta_{jk} = 0 cuando j\neq k. Entonces

\det\left(A\right)I = \left(\mbox{adj}(A)\right)A

Es decir que A tiene inversa izquierda

\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}

Como \left(\text{adj}(A)\right)^T = \text{adj}\left(A^T\right), entonces A^T también tiene inversa izquierda que es

\frac{\left(\text{adj}(A^T)\right)^T}{\det\left(A^T\right)}= \frac{\text{adj}(A)}{\det\left(A\right)}

Entonces

\frac{\text{adj}(A)}{\det\left(A\right)}A^T=I

luego, aplicando la transpuesta

A\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}=I

Que es lo que se quería demostrar

Métodos de inversión de matrices[editar]

Solución analítica[editar]

Inversión de matrices 2×2[editar]

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:[6]

\mathbf{A}^{-1} = \begin{bmatrix}
a & b \\ c & d \\ 
\end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} =
\frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}

Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.


Ejemplo numérico:


C = \begin{bmatrix}
1 & 2 \\ 3 & 4 \\
\end{bmatrix} ,     \      
C^{-1} = \begin{bmatrix}
1 & 2 \\ 3 & 4 \\
\end{bmatrix}^{-1} =
\frac1{-2} \begin{bmatrix}
4 & -2 \\ -3 & 1 \\
\end{bmatrix}

Inversión de matrices de órdenes superiores[editar]

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \ \operatorname{adj} (A)^T  \

Donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \ \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.

Cuando la matriz tiene más de tres filas, está fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.

Métodos numéricos[editar]

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Grupo lineal[editar]

El conjunto de todas las matrices n\times n que admiten inversa se denota es una representación lineal del grupo lineal de orden n, denotado como \textrm{GL}(n). Este grupo tiene importantes aplicaciones en álgebra y física. Además \textrm{GL}(n) \subset M_{n\times n} es un conjunto abierto (con la topología inducida de \R ^{n^2}).

Véase también[editar]

Referencias[editar]

  1. Apostol, Tom M. (2002). «3. Determinantes, 5. Autovalores de operadores en espacios euclídeos». Calculus vol. 2 (2ª edición). Barcelona: Reverté S.A. pp. 113,151. ISBN 84-291-5003-X. 
  2. Clapham, Christopher (2004). Diccionario de Matemáticas (1ª edición). Madrid: Editorial Complutense. pp. 3–4. ISBN 84-89784-56-6. 
  3. Castañeda Hernandez, Sebastián; Barrios Sarmiento, Agustín (2004). «3.6 Cofactores y Regla de Cramer». Notas de álgebra lineal (2ª edición). Barranquilla (colombia): Ediciones Uninorte. p. 193. ISBN 958-8133-89-0. 
  4. Díaz Martín, Jose Fernando (2005). «6. Determinantes». Introduccion Al Algebra (1ª edición). La coruña (España): NetBiblo. pp. 229–230,237–238. ISBN 84-9745-128-7. 
  5. Perelló, Miquel A. (2002). «4.3.3. Cálculo por determinantes de la matriz inversa». Álgebra lineal. Teoría y práctica. Barcelona: Edicions UPC. pp. 129,136. ISBN 8483016621. 
  6. Strang, Gilbert (2006). Linear Algebra and Its Applications. Thomson Brooks/Cole. p. 46. ISBN 0-03-010567-6. 

Enlaces externos[editar]