Eliminación de Gauss-Jordan

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal.

Antecedentes[editar]

El método de eliminación de Gauss aparece en el capítulo ocho del importante texto matemático chino Jiuzhang suanshu o Los nueve capítulos sobre el arte matemático. Su uso se ilustra en dieciocho problemas, con dos a cinco ecuaciones. La primera referencia al libro por este título data desde 179 dC, pero algunas de sus partes fueron escritas tan temprano como aproximadamente alrededor de 150 a. C.[1] [2] Fue comentado por Liu Hui en el siglo tercero.

Análisis de Complejidad[editar]

La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.

Algoritmo de eliminación de Gauss-Jordan[editar]

  1. Ir a la columna no cero extrema izquierda
  2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga
  3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él
  4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón)
  5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los renglones correspondientes

Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida

Ejemplo[editar]

Supongamos que es necesario encontrar los números "x", "y", "z", que satisfacen simultáneamente estas ecuaciones:


   \left \{
      \begin{array}{rrrcr}
          2x & + y &   -z & = &   8 \\
         -3x & - y & + 2z & = & -11 \\
         -2x & + y & + 2z & = &  -3 \\
      \end{array}
   \right .

Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas:

  • Multiplicar una ecuación por un escalar no nulo.
  • Intercambiar de posición dos ecuaciones
  • Sumar a una ecuación un múltiplo de otra.

Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.

En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es:


   \left \{
      \begin{array}{rrrcr}
          2x & +             y &             -z & = & 8 \\
             &    \frac{1}{2}y & + \frac{1}{2}z & = & 1 \\
             &              2y &           +  z & = & 5
      \end{array}
   \right .

Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y.


   \left \{
      \begin{array}{rrrcr}
          2x &                 &            -2z & = & 6 \\
             &    \frac{1}{2}y & + \frac{1}{2}z & = & 1 \\
             &                 &             -z & = & 1
      \end{array}
   \right .

Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z.


   \left \{
      \begin{array}{rrrcr}
          2x &              &    & = & 4 \\
             & \frac{1}{2}y &    & = & \frac{3}{2} \\
             &              & -z & = & 1
      \end{array}
   \right .

Despejando, podemos ver las soluciones:


   \left \{
      \begin{array}{rrrcr}
          x &   &   & = & 2 \\
            & y &   & = & 3 \\
            &   & z & = & -1
      \end{array}
   \right .

Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial:

Primero:


   \left (
      \begin{array}{rrrr}
          2 &  1 & -1 &   8 \\
         -3 & -1 &  2 & -11 \\
         -2 &  1 &  2 &  -3
      \end{array}
   \right )

Después,


   \left (
      \begin{array}{rrrr}
         2 &   0 &  0 & 4   \\
         0 & 1/2 &  0 & 3/2 \\
         0 &   0 & -1 & 1
      \end{array}
   \right )

Por último.


   \left (
      \begin{array}{rrrr}
         1 & 0 & 0 &  2 \\
         0 & 1 & 0 &  3 \\
         0 & 0 & 1 & -1
      \end{array}
   \right )

Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:


\begin{pmatrix}
0 & 0 & 0 & 1 \\
\end{pmatrix}

Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución.

Forma escalonada y escalonada reducida[editar]

Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades:

  1. Todas las filas 1 están en la parte inferior de la matriz.
  2. El elemento delantero de cada fila diferente de cero, éste es llamado "pivote"; éstos están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero).

Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida.

  1. Todos los elementos delanteros ("pivotes") son iguales a 1
  2. Todos los elementos por encima de los pivotes son nulos.

Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz


\begin{pmatrix}
0 & 1 & 4 & 0 & 0 \\*
0 & 0 & 0 & 1 & 0  \\
0 & 0 & 0 & 0 & 1  \\
1 & 1 & 2 & 2& 2  \\
\end{pmatrix}

también es una matriz escalonada.

Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):

  1. Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución).
  2. En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes).

Otras aplicaciones[editar]

Encontrando la inversa de una matriz[editar]

Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad, simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:


A= \begin{pmatrix}
2 & 1 & -1  \\
-3 & -1 & 2 \\
-2 & 1 & 2 
\end{pmatrix}

se construiría


\left ( \begin{array}{ccc|ccc}
2 & 1 & -1 & 1 & 0 & 0 \\
-3 & -1 & 2 & 0 & 1 & 0 \\
-2 & 1 & 2 & 0 & 0 & 1
\end{array} \right )

y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos


\left ( \begin{array}{ccc|ccc}
2 & 1 & -1 & 1 & 0 & 0 \\
-1 & 0 & 1 & 1 & 1 & 0 \\
0 & 2 & 1 & 1 & 0 & 1
\end{array} \right )

multiplicamos la segunda fila por -1 y la intercambiamos con la primera


\left ( \begin{array}{ccc|ccc}
1 & 0 & -1 & -1 & -1 & 0 \\
2 & 1 & -1 & 1 & 0 & 0 \\
0 & 2 & 1 & 1 & 0 & 1
\end{array} \right )

ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo


\left ( \begin{array}{ccc|ccc}
1 & 0 & -1 & -1 & -1 & 0 \\
0 & 1 & 1 & 3 & 2 & 0 \\
0 & 2 & 1 & 1 & 0 & 1
\end{array} \right )

ahora usamos el pivote de la segunda fila


\left ( \begin{array}{ccc|ccc}
1 & 0 & -1 & -1 & -1 & 0 \\
0 & 1 & 1 & 3 & 2 & 0 \\
0 & 0 & -1 & -5 & -4 & 1
\end{array} \right )

y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente


\left ( \begin{array}{ccc|ccc}
1 & 0 & 0 & 4 & 3 & -1 \\
0 & 1 & 0 & -2 & -2 & 1 \\
0 & 0 & 1 & 5 & 4 & -1
\end{array} \right )

El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa.

Referencias[editar]

  1. Calinger (1999), pp. 234–236
  2. The Princeton Companion to Mathematics. Princeton University Press. 8 de septiembre de 2008. p. 607. ISBN 978-0-691-11880-2. 

Véase también[editar]