Algoritmo para matrices tridiagonales

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

El algoritmo para matrices tridiagonales o algoritmo de Thomas (por Llewellyn Thomas) es un algoritmo del álgebra lineal numérica para resolver matrices tridiagonales de forma eficiente.

Una matriz tridiagonal se corresponde a un sistema de ecuaciones de la forma

donde y . lo que se puede representar matricialmente como

Para este tipo de sistemas se puede obtener con este algoritmo una solución con solo operaciones en vez de las que requiere la eliminación gaussiana. El algoritmo primero elimina las y luego usa una sustitución para obtener la solución.

Este tipo de matrices suelen salir al plantear discretizaciones por métodos de diferencias finitas, volúmenes finitos o elementos finitos de problemas unidimensionales. Algunos de los problemas físicos que se plantean así son la Ecuación de Poisson, la ecuación de calor, la ecuación de onda o la interpolación por splines.

Método[editar]

El primer paso del método es modificar los coeficientes como sigue:

donde se marcan con superíndice ' los nuevos coeficientes.

De igual manera se opera:

a lo que se llama barrido hacia adelante. A continuación se obtiene la solución por sustitución hacia atrás:

Implementaciones[editar]

Implementación en C[editar]

La siguiente función en C resolverá el sistema (aunque sobreescribirá el vector de entrada c en el proceso). Se ha de notar que aquí los subíndices están basados en el cero, es decir donde es el número de ecuaciones:

void solve_tridiagonal_in_place_destructive(float x[], const size_t N, const float a[], const float b[], float c[]) {
size_t n;

/*
solves Ax = v where A is a tridiagonal matrix consisting of vectors a, b, c
note that contents of input vector c will be modified, making this a one-time-use function
x[] - initially contains the input vector v, and returns the solution x. indexed from [0, ..., N - 1]
N - number of equations
a[] - subdiagonal (means it is the diagonal below the main diagonal) -- indexed from [1, ..., N - 1]
b[] - the main diagonal, indexed from [0, ..., N - 1]
c[] - superdiagonal (means it is the diagonal above the main diagonal) -- indexed from [0, ..., N - 2]
*/

c[0] = c[0] / b[0];
x[0] = x[0] / b[0];

/* loop from 1 to N - 1 inclusive */
for (n = 1; n < N; n++) {
float m = 1.0f / (b[n] - a[n] * c[n - 1]);
if(n < (N-1)) c[n] = c[n] * m;
x[n] = (x[n] - a[n] * x[n - 1]) * m;
}

/* loop from N - 2 to 0 inclusive */
for (n = N - 2; n-- > 0; ) {
x[n] = x[n] - c[n] * x[n + 1];
}
}

La siguiente variante preserva el sistema de ecuaciones para reutilizarlo en otras funciones. Se hacen llamadas a la biblioteca para reservar más especiao. Otras variantes usan un puntero a memoria disponible.

void solve_tridiagonal_in_place_reusable(float x[], const size_t N, const float a[], const float b[], const float c[]) {
size_t n;

/* allocate scratch space */
float * const cprime = malloc(sizeof(float) * N);
 
cprime[0] = c[0] / b[0];
x[0] = x[0] / b[0];

/* loop from 1 to N - 1 inclusive */
for (n = 1; n < N; n++) {
float m = 1.0f / (b[n] - a[n] * cprime[n - 1]);
if(n < (N-1)) cprime[n] = c[n] * m;
x[n] = (x[n] - a[n] * x[n - 1]) * m;
}

/* loop from N - 2 to 0 inclusive */
for (n = N - 2; n-- > 0; )
x[n] = x[n] - cprime[n] * x[n + 1];
  
/* free scratch space */
free(cprime);
}

Implementación en Python[editar]

La siguiente implementación usa el lenguaje de programación Python.De nuevo, los subíndices son basados en el cero ( donde es el número de incógnitas).

def TDMASolve(a, b, c, d):
n = len(d)#n in the numbers is rows

# Modify the first-row coefficients
c[0] /= b[0] #Division by zero risk.
d[0] /= b[0]

for i in xrange(1, nmax):
ptemp = b[i] - (a[i] * c[i-1])
c[i] /= ptemp
d[i] = (d[i] - a[i] * d[i-1])/ptemp

#Back Substitution
x = [0 for i in xrange(nmax)]
x[-1] = d[-1]
for i in range(-2,-nmax-1,-1):
x[i] = d[i] - c[i] * x[i+1]
 	return x

Implementación en Matlab[editar]

En Matlab/Octave el algoritmo queda como sigue. Esta vez los vectores están basados en el uno, por lo que con que el número de incógnitas.

function x = TDMAsolver(a,b,c,d)
%a, b, c are the column vectors for the compressed tridiagonal matrix, d is the right vector
% N is the number of rows
N = length(d);
 
% Modify the first-row coefficients
c(1) = c(1) / b(1); % Division by zero risk.
d(1) = d(1) / b(1); 
 
for n = 2:1:N
    temp = b(n) - a(n) * c(n - 1);
    if (n<N)
        c(n) = c(n) / temp;
    end
    d(n) = (d(n) - a(n) * d(n - 1)) / temp;
end
 
% Now back substitute.
x(N) = d(N);
for n = (N - 1):-1:1
    x(n) = d(n) - c(n) * x(n + 1);
end
end

Implementación en Fortran 90[editar]

Fortran usa también una nomenclatura basada en el uno, es decir siendo el número de incógnitas.

Algunas veces no es deseable que el programa sobreescriba los coeficientes (por ejemplo para resolver diversos sistemas que solo difieren en el término independiente), así que esta implementación mantiene dichos coeficientes.

      subroutine solve_tridiag(a,b,c,d,x,n)
      implicit none
!	a - sub-diagonal (means it is the diagonal below the main diagonal)
!	b - the main diagonal
!	c - sup-diagonal (means it is the diagonal above the main diagonal)
!	d - right part
!	x - the answer
!	n - number of equations

        integer,intent(in) :: n
        real(8),dimension(n),intent(in) :: a,b,c,d
        real(8),dimension(n),intent(out) :: x
        real(8),dimension(n) :: cp,dp
        real(8) :: m
        integer i

! initialize c-prime and d-prime
        cp(1) = c(1)/b(1)
        dp(1) = d(1)/b(1)
! solve for vectors c-prime and d-prime
         do i = 2,n
           m = b(i)-cp(i-1)*a(i)
           cp(i) = c(i)/m
           dp(i) = (d(i)-dp(i-1)*a(i))/m
         enddo
! initialize x
         x(n) = dp(n)
! solve for x from the vectors c-prime and d-prime
        do i = n-1, 1, -1
          x(i) = dp(i)-cp(i)*x(i+1)
        end do

    end subroutine solve_tridiag

Derivación[editar]

Algoritmo[editar]

Se puede obtener dicho algoritmo usando la eliminación gaussiana de forma genérica. Suponiendo como incógnitas y con ecuaciones a resolver:

Modificando la segunda ecuación a partir de la primera obtenemos:

lo que da:

y se ha eliminado de la segunda ecuación. Si repetimos usando la segunda ecuación en la tercera obtenemos:

Esta vez se ha eliminado . El procedimiento se puede repetir hasta la fila enésima, dejando cada ecuación con solo dos incógnitas menos la última que solo tiene una incógnita. Entonces es inmediata la resolución de esta y desde ahí la de las anteriores.

Fórmulas para coeficientes[editar]

La determinación de los coeficientes en las ecuaciones generales es más complicada. Examinando el procedimiento, se pueden definir de forma recursiva:

Para acelerar la resolución puede ser dividido (si no hay problemas por división por cero) y los nuevos coeficientes, indicados con primas, serán:

Lo que da el siguiente sistema con las mismas incógnitas y los coeficientes definidos en función de los originales:

Donde la última ecuación solo afecta a una incógnita. Resolviéndola podemos resolver la anterior y así sucesivamente:

Variantes[editar]

En algunas situaciones, particularmente con condiciones de contorno periódicas, se busca resolver una forma perturbada de la matriz tridiagonal:

Para este caso se usa la Fórmula Sherman-Morrison para evitar las operaciones adicionales de una eliminación gaussiana y poder seguir usando el algoritmo de Thomas. Este método requiere resolver una versión no cíclica del sistema para la entrada y un vector de corrección y combinar los resultados. Todo ello se puede hacer eficientemente de una vez dado que ambos problemas compartan el barrido hacia delante de la matriz triangular..

En otras situaciones el sistema de ecuaciones puede ser tridiagonal por bloques, con submatrices como elementos formando tres diagonales. Este tipo de problemas suelen darse cuando se quiere extender los métodos de discretización a dos dimensiones y puede verse también como una matriz pentadiagonal. Variantes de este algoritmo se usan para estas situaciones.

El libro Numerical Mathematics de Quarteroni, Sacco y Saleri, recoge una versión modificada para multiplicaciones en vez de divisiones, lo que es útil en ciertas arquitecturas.

Referencias[editar]

Enlaces externos[editar]