Matriz invertible

De Wikipedia, la enciclopedia libre
(Redirigido desde «Matriz singular»)
Saltar a: navegación, búsqueda

En matemáticas, en particular en álgebra lineal, una matriz cuadrada A de orden n se dice que es invertible, no singular, no degenerada o regular si existe otra matriz cuadrada de orden n, llamada matriz inversa de A y representada como A−1, tal que:

 A\cdot A^{-1} = A^{-1}\cdot A = I_{n} ,

donde In es la matriz identidad de orden n y el producto utilizado es el producto de matrices usual.

Una matriz no invertible se dice que es singular o degenerada. Una matriz es singular si y solo si su determinante es nulo.

La inversión de matrices es el proceso de encontrar la matriz inversa de una matriz dada.

Ejemplos[editar]

Matriz de dos filas[editar]

Dada una matriz de 2x2 con determinante no nulo:

\mathbf{A}^{-1} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} = \frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}

Está definda siempre y cuando ad-bc \ne 0. Así por ejemplo la inversa de la matriz

    \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix} \mapsto \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}^{-1} = \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}, ya que  \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}  \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}= \begin{bmatrix}  1 & 0 \\  0 & 1 \end{bmatrix}

Dada una matriz de 3x3 con determinante no nulo:

\mathbf{A}^{-1} =
\begin{bmatrix} a & b & c \\ d & e & f\\ g & h & i \end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix} ei-hf & ch-bi & -ce+bf \\
-di+gf & -cg+ai & cd-af \\ dh-ge & bg-ah & ae-bd \end{bmatrix}

Propiedades de la matriz inversa[editar]

  • La inversa de una matriz, si existe, es única.
  • La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:
\left  (A \cdot B  \right ) ^{-1} = {B}^{-1} \cdot {A}^{-1}
  • Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
\left(A^{T}\right)^{-1} = \left(A^{-1}\right)^{T}
  • Y, evidentemente:
\left(A^{-1}\right)^{-1} = A
  • Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:
{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \operatorname{adj} (A)  \

donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.

Demostración de la unicidad de la inversa[editar]

Supongamos que B y C son inversas de A

 AB=BA=I
 AC=CA=I

Multiplicando por C

 (BA)C=IC=C
 (BA)C=B(AC)=BI=B

De modo que B=C y se prueba que la inversa es única.

Demostración del criterio de inversibilidad de las matrices cuadradas[editar]

Se probará la doble implicación.

Suficiencia (\Rightarrow)[editar]

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene

\det\left(AB\right)=\det\left(BA\right)=\det\left(I\right)

usando la propiedad \det(I) = 1

\det\left(A\right)\det\left(B\right)=1

Por lo tanto, \det(A) es distinto de cero.

\det\left(A\right)\neq0

Necesidad (\Leftarrow)[editar]

Suponiendo que el determinante de A es distinto de cero, sea a_{ij} es el elemento ij de la matriz  A y sea A_{ij} la matriz A sin la fila i y la columna j (comúnmente conocida como j-ésimo menor de A). Entonces

 \det(A)= \sum_{i=1}^n (-1)^{i+j}a_{ij}\det(A_{ij})

Sea k\neq j, entonces

 \sum_{i=1}^n (-1)^{i+j}a_{ik}\det(A_{ij})=0

Esta afirmación es válida por propiedades de los determinantes, pues la parte izquierda de la relación es el determinante de la matriz A con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces

 \delta_{jk}\det\left(A\right)= \sum_{i=1}^n (-1)^{i+j}\det\left(A_{ij}\right)a_{ik}

donde \delta_{jk} = 1 cuando j=k y \delta_{jk} = 0 cuando j\neq k. Entonces

\det\left(A\right)I = \left(\mbox{adj}(A)\right)A

Es decir que A tiene inversa izquierda

\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}

Como \left(\text{adj}(A)\right)^T = \text{adj}\left(A^T\right), entonces A^T también tiene inversa izquierda que es

\frac{\left(\text{adj}(A^T)\right)^T}{\det\left(A^T\right)}= \frac{\text{adj}(A)}{\det\left(A\right)}

Entonces

\frac{\text{adj}(A)}{\det\left(A\right)}A^T=I

luego, aplicando la transpuesta

A\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}=I

Que es lo que se quería demostrar

Métodos de inversión de matrices[editar]

Solución analítica[editar]

Inversión de matrices 2×2[editar]

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:[1]

\mathbf{A}^{-1} = \begin{bmatrix}
a & b \\ c & d \\ 
\end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} =
\frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}

Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.


Ejemplo numérico:


C = \begin{bmatrix}
3 & 2 \\ 4 & -2 \\
\end{bmatrix} ,     \      
C^{-1} = \begin{bmatrix}
1 & 2 \\ 3 & 4 \\
\end{bmatrix}^{-1} =
\frac1{-2} \begin{bmatrix}
4 & -2 \\ -3 & 1 \\
\end{bmatrix}

Inversión de matrices de órdenes superiores[editar]

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \ \operatorname{adj} (A)  \

Donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \ \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.

Cuando la matriz tiene más de tres filas, está fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.

Métodos numéricos[editar]

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Véase también[editar]

Referencias[editar]

  1. Strang, Gilbert (2006). Linear Algebra and Its Applications. Thomson Brooks/Cole. p. 46. ISBN 0-03-010567-6. 

Enlaces externos[editar]