Matriz de adjuntos

De Wikipedia, la enciclopedia libre
(Redirigido desde «Matriz de cofactores»)
Saltar a: navegación, búsqueda
En la terminología matemática moderna, se denomina matriz adjunta a la matriz conjugada traspuesta.[1]

Dada una matriz cuadrada A, su matriz de adjuntos o matriz de cofactores cof(A) es la resultante de sustituir cada término aij de A por el cofactor aij de A. El término matriz adjunta adj(A) suele crear confusión, ya que en muchos tratados clásicos sobre álgebra lineal corresponde a la matriz de cofactores traspuesta,[1] [2] [3] sin embargo, en otros textos, se corresponde a la matriz de cofactores, puesto que llaman de la misma manera adjunto al cofactor y de ahí que sea adjunta.[4] [5] Aparte, también se utiliza el símbolo adj( ) indistintamente a cof( ) para el cálculo en los elementos de una matriz, haciendo, si cabe, la confusión más amplia.[6]

El interés principal de la matriz adjunta es que permite calcular la inversa de una matriz, ya que se cumple la relación:


   \mathbf{A}^{-1} =
   \frac{1}{\det \mathbf{A}} \;
   \mbox{adj}(\mathbf{A^T})

donde adj(A^T) corresponde a la matriz de cofactores traspuesta, o sea,

\mathrm{adj}(\mathbf{A}) = \operatorname{cof}(\mathbf{A})^T= \mathbf{C}^T \,.

Sin embargo, para matrices de dimensiones grandes, este tipo de cálculo resulta más costoso, en términos de operaciones, que otros métodos como el método de eliminación de Gauss.

Definición y fórmulas de cálculo[editar]

Dada una matriz \scriptstyle \mathbf{A} su matriz de adjuntos es la única matriz \scriptstyle \mathbf{B} tal que:[7]


   \mathbf{A} \mathbf{B}^T=
   \mathbf{B}^T \mathbf{A} =
   (\det \mathbf{A}) \mathbf{I}

Esta definición no permite calcular directamente la matriz de adjuntos (o cofactores) por lo que comúnmente se define también la matriz de adjuntos mediante la siguiente fórmula explícita. Dadas las componentes explícitas de la matriz: (a_{ij}) = \mathbf{A} \in M_{n\times n} para cada i y j se define la matriz \tilde{\mathbf{A}}(i,j) como la matriz de orden \scriptstyle (n-1) obtenida a partir de \mathbf{A} eliminando la fila i-ésima y la columna j-ésima. Y se define la cantidad:


   d_{ij} =
   (-1)^{i+j} \det \tilde{\mathbf{A}}(i,j)

Y se tiene que estas son precisamente las componentes de la matriz de adjuntos (o cofactores), es decir, \mbox{cof}(\mathbf{A}) = (d_{ij})\,

Matrices 2 x 2[editar]

Dada una matriz de 2 x 2:


   \mathbf{A} =
   \begin{pmatrix}
      A_{11} & A_{12} \\
      A_{21} & A_{22}
   \end{pmatrix}

Su matriz adjunta viene dada por:


   \mbox{adj}(\mathbf{A}) = \mathbf{C}^T =
   \begin{pmatrix}
       A_{22} & -A_{21} \\
      -A_{12} & A_{11}
   \end{pmatrix}^T = \begin{pmatrix}
       A_{22} & -A_{12} \\
      -A_{21} & A_{11}
   \end{pmatrix}

donde C es la matriz de cofactores.

Matrices 3 x 3[editar]

Dada una matriz de 3 x 3:


   \mathbf{A} =
   \begin{pmatrix}
      A_{11} & A_{12} & A_{13} \\
      A_{21} & A_{22} & A_{23} \\
      A_{31} & A_{32} & A_{33}
   \end{pmatrix}

Su matriz de cofactores viene dada por:


   \mbox{cof}(\mathbf{A}) =
   \begin{pmatrix} 
      +
      \left |
         \begin{matrix} A_{22} & A_{23} \\
             A_{32} & A_{33} 
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{21} & A_{23} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{21} & A_{22} \\
            A_{31} & A_{32}
         \end{matrix}
      \right | \\
       & & \\
      -
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{32} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{31} & A_{32}
         \end{matrix}
      \right| \\
      & & \\
      +
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{22} & A_{23}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{21} & A_{23}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{21} & A_{22}
         \end{matrix}
      \right|
   \end{pmatrix} =
   \begin{pmatrix} 
      A_{22}A_{33} - A_{23}A_{32} & A_{23}A_{31} - A_{21}A_{33} & A_{21}A_{32} - A_{22}A_{31}\\
      A_{32}A_{13} - A_{33}A_{12} & A_{33}A_{11} - A_{31}A_{13} & A_{31}A_{12} - A_{32}A_{11}\\
      A_{12}A_{23} - A_{13}A_{22} & A_{13}A_{21} - A_{11}A_{23} & A_{11}A_{22} - A_{12}A_{21}
   \end{pmatrix}

y por lo tanto la transpuesta de la matriz de cofactores es la matriz Adjunta:


   \mbox{adj}(\mathbf{A}) =
   \begin{pmatrix} 
      +
      \left |
         \begin{matrix} A_{22} & A_{23} \\
             A_{32} & A_{33} 
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{21} & A_{23} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{21} & A_{22} \\
            A_{31} & A_{32}
         \end{matrix}
      \right | \\
       & & \\
      -
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{32} & A_{33}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{31} & A_{33}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{31} & A_{32}
         \end{matrix}
      \right| \\
      & & \\
      +
      \left |
         \begin{matrix}
            A_{12} & A_{13} \\
            A_{22} & A_{23}
         \end{matrix}
      \right | &
      -
      \left |
         \begin{matrix}
            A_{11} & A_{13} \\
            A_{21} & A_{23}
         \end{matrix}
      \right | &
      +
      \left |
         \begin{matrix}
            A_{11} & A_{12} \\
            A_{21} & A_{22}
         \end{matrix}
      \right|
   \end{pmatrix}^T

Para matrices de 3x3 también puede usarse la siguiente fórmula:


   [\mbox{adj}(\mathbf{A})]_{ij} =
   \frac{1}{2} \; \epsilon_{mni} \; \epsilon_{pqj} \; a_{mp} \; a_{nq}

Ejemplo[editar]

Un ejemplo sería el siguiente:


   \operatorname{adj}
   \begin{pmatrix}
      2 & 1 & 0 \\
      1 &-1 & 1 \\
      0 & 2 &-1
   \end{pmatrix} =
   \begin{pmatrix}
      -1 & 1 & 2 \\
       1 &-2 &-4 \\
       1 &-2 &-3
   \end{pmatrix}

Matrices n x n[editar]

Para matrices con n grande, el costo computacional del cálculo de adjuntos es grande, por lo que si el objetivo es calcular la inversa de una matriz, se recurre a otros algoritmos de cálculo que no impliquen calcular primero la matriz de adjuntos. Para el cálculo de la matriz de adjuntos en el caso general, puede emplearse la siguiente fórmula:


   [\mbox{adj}(\mathbf{A})]_{ij} =
   \frac{1}{(n-1)!} \;
   \epsilon_{i_1 \dots i_{n-1} i} \;
   \epsilon_{j_1 \dots j_{n-1} j} \;
   a_{i_1 j_1} \;
   a_{i_2 j_2} \;
   \dots \;
   a_{i_{n-1} j_{n-1}}

Propiedades[editar]

Dada una matriz \mathbf{A} = (a_{ij}) \in M_{n\times n} definiendo \mathbf{B} = (b_{ij}) = \mbox{adj}(A) puede probarse que las b_{ij}\, pueden escribirse como suma de monomios de grado n en las componentes a_{ij}\,. Eso hace que a medida que n aumenta el cálculo de la matriz adjunta por aplicación de fórmulas directas sea complicado, llegando a ser computacionalmente muy costoso.

Si consideramos la operación de buscar la matriz adjunta como una función: \mbox{adj}:M_{n\times n} \to _{n\times n} resulta que esa función es continua. Esto puede verse a partir de la continuidad de la función determinante. Además se tienen otras propiedades interesantes:

  • \mbox{adj}(\mathbf{A}^T)= \mbox{adj}(\mathbf{A})^T
  • \mbox{adj}(\mathbf{A}\mathbf{B})= \mbox{adj}(\mathbf{B})\mbox{adj}(\mathbf{A}) [8]
  • \mbox{adj}(\mathbf{I})= \mathbf{I}
  • \mathbf{A}\, \mathrm{adj}(\mathbf{A}) = \mathrm{adj}(\mathbf{A})\, \mathbf{A} = \det(\mathbf{A})\, \mathbf I para \mathbf{A}\in M_{n\times n}.
  • \mbox{adj}(\lambda\mathbf{A})= \lambda^{n-1}\mbox{adj}(\mathbf{A}) para \mathbf{A}\in M_{n\times n}.
  • \mbox{adj}(\mbox{adj}(\mathbf{A}))= \det(\mathbf{A})^{n-2}\mathbf{A} para \mathbf{A}\in M_{n\times n}.
  • \det(\mathbf{A}) = \mbox{tr}(\mathbf{A}\ \mbox{adj}(\mathbf{A}))/n para \mathbf{A}\in M_{n\times n}.
  • \det\big(\mathrm{adj}(\mathbf{A})\big) = \det(\mathbf{A})^{n-1}\,.

Si p(t) = det(A − tI) es el polinomio característico de A y definimos el polinimio q(t) = (p(0) − p(t))/t, entonces:

 \mathrm{adj}(\mathbf{A}) = q(\mathbf{A}) = -(p_1 \mathbf{I} + p_2 \mathbf{A} + p_3 \mathbf{A}^2 + \cdots + p_{n} \mathbf{A}^{n-1})

Donde p_j\, son los coeficientes de p(t):

 p(t) = p_0 + p_1 t + p_2 t^2 + \cdots p_{n} t^{n}.

La función adjunta también aparece en la fórmula de la derivada del determinante:[9]

\det(\mathbf{A+H}) - \det(\mathbf{A}) =
\mbox{tr}(\mbox{adj}(\mathbf{A})\ \mathbf{H}) + o(\|\mathbf{H}\|)

Véase también[editar]

Referencias[editar]

  1. a b Apostol, Tom M. (2002). «3. Determinantes, 5. Autovalores de operadores en espacios euclídeos». Calculus vol. 2 (2ª edición). Barcelona: Reverté S.A. pp. 113,151. ISBN 84-291-5003-X. 
  2. Clapham, Christopher (2004). Diccionario de Matemáticas (1ª edición). Madrid: Editorial Complutense. pp. 3–4. ISBN 84-89784-56-6. 
  3. Castañeda Hernandez, Sebastián; Barrios Sarmiento, Agustín (2004). «3.6 Cofactores y Regla de Cramer». Notas de álgebra lineal (2ª edición). Barranquilla (colombia): Ediciones Uninorte. p. 193. ISBN 958-8133-89-0. 
  4. Díaz Martín, Jose Fernando (2005). «6. Determinantes». Introduccion Al Algebra (1ª edición). La coruña (España): NetBiblo. pp. 229–230,237–238. ISBN 84-9745-128-7. 
  5. Perelló, Miquel A. (2002). «4.3.3. Cálculo por determinantes de la matriz inversa». Álgebra lineal. Teoría y práctica. Barcelona: Edicions UPC. pp. 129,136. ISBN 8483016621. 
  6. En este artículo se utilizará la terminología matriz Adjunta como adj(A)=cof(A)T.
  7. Philippe G. Ciarlet: Mathematical Elasticity, North Holland, 1993, p. 4
  8. Balabanian, Norman. «1.16 Conceptos fundamentales. Álgebra Matricial Elemental» (en castellano). Teoría de redes eléctricas. Consultado el 24 de marzo de 2013.
  9. Philippe G. Ciarlet, 1993,