Método lineal multipaso

De Wikipedia, la enciclopedia libre

Los métodos lineales multipaso se utilizan para la resolución numérica de ecuaciones diferenciales ordinarias. Conceptualmente, los métodos numéricos comienzan tras la elección de un punto inicial y a continuación realizan un paso de aproximación para encontrar el siguiente punto que permita seguir acercándose a la solución. El proceso continúa con los siguientes pasos para reconocer la solución.

Los métodos de un solo paso (como el método de Euler) se refieren solo a un punto anterior y a su derivada para determinar el valor buscado. Métodos como el de Runge–Kutta utilizan un paso más (por ejemplo, un paso intermedio) para obtener un método de orden superior, para luego descartar la información anterior antes de dar un segundo paso. Los métodos de varios pasos intentan obtener eficiencia manteniendo y utilizando la información de los pasos anteriores, en lugar de descartarla. Por consiguiente, se refieren a distintos puntos anteriores y a los valores de sus derivadas. En el caso de los métodos lineales "multipaso", se utiliza una combinación lineal de los puntos anteriores y de los valores de sus derivadas.

Definiciones[editar]

Los métodos numéricos para obtener soluciones aproximadas a ecuaciones diferenciales ordinarias, abordan el problema de elegir valores iniciales de la forma

El resultado es un conjunto de aproximaciones para el valor de en momentos discretos : siendo es el paso o incremento del tiempo elegido (a veces referido como ) y siendo un entero.

Los métodos de varios pasos utilizan información de los pasos anteriores de para calcular el siguiente valor. En particular, un método "lineal multipaso" utiliza una combinación lineal de y para calcular el valor de para el paso deseado. Por lo tanto, un método lineal multipaso adopta la forma



Los coeficientes y determinan el método. El diseñador del método elige los coeficientes, equilibrando la necesidad de obtener una buena aproximación a la verdadera solución, frente a la necesidad de obtener un método que sea fácil de aplicar. A menudo, muchos coeficientes son cero para simplificar el método.

Se puede distinguir entre métodos implícitos y explícitos. Si , entonces el método se llama "explícito", ya que la fórmula puede calcular directamente . Si entonces el método se llama "implícito", ya que el valor de depende del valor de , y la ecuación debe ser resuelta para . Métodos iterativos tales como el método de Newton se utilizan a menudo para resolver la fórmula implícita.

A veces se utiliza un método explícito de varios pasos para "predecir" el valor de . Ese valor se utiliza entonces en una fórmula implícita para "corregir" el valor obtenido. El resultado es entonces un método predictor–corrector.

Ejemplos[editar]

Considérese por ejemplo el problema

La solución exacta es .

Euler de un paso[editar]

Un método numérico simple es el método de Euler:

El método de Euler puede ser visto como un método multipaso explícito, para el caso degenerado de un solo paso.

Este método, aplicado con el tamaño de paso en el problema , da los siguientes resultados:

Adams-Bashforth de dos pasos[editar]

El método de Euler es un método de un solo paso. Un método simple de varios pasos es el método de dos pasos de Adams-Bashforth

Este método necesita dos valores, y , para calcular el siguiente valor, . Sin embargo, el problema de valor inicial proporciona solo un valor, . Una posibilidad para resolver este problema es utilizar el calculado por el método de Euler como el segundo valor. Con esta opción, el método de Adams-Bashforth produce (redondeado a cuatro dígitos):

La solución exacta en es , por lo que el método de dos pasos de Adams-Bashforth es más preciso que el método de Euler. Esto es siempre el caso si el tamaño del paso es lo suficientemente pequeño.

Familias de métodos de varios pasos[editar]

Se utilizan comúnmente tres familias de métodos lineales de varios pasos: los métodos de Adams-Bashforth, los métodos de Adams-Moulton y las fórmula de diferenciación hacia atrás.

Métodos de Adams-Bashforth[editar]

Los métodos de Adams-Bashforth son métodos explícitos. Los coeficientes son y , mientras que los son elegidos de tal manera que los métodos tienen orden s (esto determina los métodos únicamente).

Los métodos de Adams-Bashforth con s = 1, 2, 3, 4, 5 son (Hairer, Nørsett y Wanner, 1993, §III.1;Butcher, 2003, p. 103):

Los coeficientes se pueden determinar como sigue: utilícese la interpolación polinómica para encontrar el polinomio p de grado tal que:


La fórmula de Lagrange para la interpolación polinómica resulta

El polinomio p es localmente una buena aproximación del lado derecho de la ecuación diferencial que se va a resolver, por lo que puede considerarse la ecuación en su lugar. Esta ecuación puede ser resuelta exactamente; la solución es simplemente la integral de p. Esto sugiere que:

El método de Adams-Bashforth surge cuando se sustituye p en la fórmula. Los coeficientes resultan ser dados por

Reemplazar por su interpolante p supone incurrir en un error de orden hs, de lo que se sigue que el método de Adams-Bashforth de s pasos tiene efectivamente orden s (Iserles, 1996, §2.1).

Los métodos de Adams-Bashforth fueron diseñados por John Couch Adams para resolver un modelo de ecuaciones diferenciales de capilaridad planteado por Francis Bashforth.Bashforth (1883) publicó su teoría y el método numérico de Adams (Goldstine, 1977).

Métodos de Adams-Moulton[editar]

Los métodos de Adams-Moulton se parecen a los métodos de Adams-Bashforth en que también tienen y . De nuevo se eligen los coeficientes "b" para obtener el orden más alto posible. Sin embargo, los métodos de Adams-Moulton son métodos implícitos. Al eliminar la restricción de que , un método de Adams-Moulton "paso a paso" puede alcanzar el orden , mientras que los métodos de Adams-Bashforth en el paso s solo tienen orden s.

Los métodos de Adams-Moulton con s = 0, 1, 2, 3, 4 son (Hairer, Nørsett y Wanner, 1993, §III.1;Quarteroni, Sacco y Saleri, 2000):

La deducción de los métodos de Adams-Moulton es similar a la del método de Adams-Bashforth; sin embargo, el polinomio de interpolación utiliza no solo los puntos , como anteriormente, sino también . Los coeficientes vienen dados por

Los métodos de Adams-Moulton se deben únicamente a John Couch Adams, al igual que los métodos de Adams-Bashforth. El nombre de Forest Ray Moulton se asoció con estos métodos porque se dio cuenta de que podrían ser utilizados en tándem con los métodos de Adams-Bashforth como un par de métodos predictor-corrector (Moulton, 1926);Milne (1926) tenía la misma idea. Adams utilizó el método de Newton para resolver la ecuación implícita (Hairer, Nørsett y Wanner, 1993, §III.1).

Fórmulas de diferenciación hacia atrás[editar]

Los métodos de diferenciación hacia atrás son métodos implícitos, con y los otros coeficientes elegidos de manera que el método obtenga el orden s (el máximo posible). Estos métodos se utilizan especialmente para la resolución de ecuaciones diferenciales rígidas.

Análisis[editar]

Los conceptos centrales en el análisis de los métodos lineales multipaso, y de hecho, de cualquier método numérico para resolver ecuaciones diferenciales, son su convergencia, su orden, y su estabilidad.

Coherencia y orden[editar]

La primera pregunta es si el método es coherente: ¿es la ecuación diferencial

una buena aproximación de la ecuación diferencial ? Más precisamente, un método de varios pasos es consistente si el error de truncamiento local se acerca a cero más rápido que el tamaño de paso h cuando h tiende a cero, donde se define elerror de truncamiento local como la diferencia entre el resultado del método (suponiendo que todos los valores anteriores son exactos), y la solución exacta de la ecuación para el instante . Un cálculo utilizando la serie de Taylor muestra que un método lineal multipaso es coherente si y solo si:

Todos los métodos mencionados anteriormente son consistentes (Hairer, Nørsett y Wanner, 1993, §III.2).

Si el método es consistente, entonces la siguiente pregunta es en qué manera la ecuación que define el método numérico se aproxima a la ecuación diferencial. Se dice que un método de varios pasos tiene orden p si el error local es de orden cuando h tiende a cero. Esto es equivalente a la condición siguiente sobre los coeficientes de los métodos:

El método de Adams-Bashforth de la etapa s tiene orden s, mientras que el método de Adams-Moulton en la etapa s tiene orden (Hairer, Nørsett y Wanner, 1993, §III.2).

Estas condiciones se formulan a menudo utilizando los "polinomios característicos":

En términos de estos polinomios, la condición anterior para que el método tenga orden p se convierte en:

En particular, el método es coherente si tiene orden al menos uno, que es el caso si y .

Estabilidad y convergencia[editar]

La solución numérica con un método de un paso depende de la condición inicial , pero la solución numérica de un método de "s" pasos, depende de todos los valores iniciales de "s", . Por lo tanto, es de interés determinar si la solución numérica es estable con respecto a perturbaciones en los valores de partida. Un método lineal multipaso es "cero-estable" para una determinada ecuación diferencial en un intervalo de tiempo dado, si una perturbación en los valores iniciales del tamaño ε hace que la solución numérica sobre ese intervalo de tiempo cambie por no más de Kε para algún valor de K, que no depende del tamaño del paso h. Esto se llama "estabilidad cero" porque es suficiente para comprobar la condición de la ecuación diferencial (Süli y Mayers, 2003, p. 332).

Si las raíces del polinomio característico ρ tienen un módulo menor o igual a 1 y las raíces del módulo 1 son de multiplicidad 1, se dice que la condición raíz está satisfecha. Un método lineal multipaso es cero-estable si y solo si la condición raíz se satisface (Süli y Mayers, 2003, p. 335).

Supóngase ahora que un método lineal multipaso coherente se aplica a una ecuación diferencial suficientemente suave y que los valores iniciales convergen todos al valor inicial cuando . Entonces, la solución numérica converge a la solución exacta cuando si y solo si el método es cero-estable. Este resultado se conoce como el "teorema de equivalencia de Dahlquist", nombrado así en memoria de Germund Dahlquist. El razonamiento de este teorema es similar al del teorema de equivalencia de Lax para el método de las diferencias finitas. Además, si el método tiene orden p, entonces el error global de truncado (la diferencia entre la solución numérica y la solución exacta en un tiempo fijo) es (Süli y Mayers, 2003, p. 340).

Además, si el método es convergente, se dice que el método es "fuertemente estable" si es la única raíz de módulo 1. Si es convergente y no se repiten todas las raíces de módulo 1, pero hay más de una raíz de este tipo, se dice que es "relativamente estable". Téngase en cuenta que 1 debe ser una raíz para que el método sea convergente; los métodos convergentes son siempre uno de estos dos.

Para evaluar el rendimiento de los métodos lineales de varios pasos en ecuaciones diferenciales rígidas, considérese la ecuación lineal de prueba y = λy. Un método multipaso aplicado a esta ecuación diferencial con el tamaño de paso h produce una relación de recurrencia lineal con polinomio característico

Este polinomio se denomina polinomio de estabilidad del método multipaso. Si todas sus raíces tienen un módulo menor que uno, entonces la solución numérica del método de varios pasos convergerá a cero y se dice que el método de varios pasos es "absolutamente estable" para ese valor de hλ. Se dice que el método es A-estable si es absolutamente estable para todos los hλ con la parte real negativa. La región de estabilidad absoluta es el conjunto de todos los hλ para los cuales el método multipaso es absolutamente estable (Süli y Mayers, 2003, pp. 347 & 348). Para obtener más detalles, consúltese la sección sobre ecuaciones diferenciales rígidas.

Ejemplo[editar]

Considérese el método de tres pasos de Adams-Bashforth:

Así, un polinomio característico toma la forma:

con raíces , y las condiciones anteriores se satisfacen. Como es la única raíz del módulo 1, el método es fuertemente estable.

El otro polinomio característico es:

Primera y segunda barreras de Dahlquist[editar]

Estos dos resultados fueron probados por Germund Dahlquist y representan un límite importante para el orden de convergencia y para la A-estabilidad de un método lineal de varios pasos. La primera barrera de Dahlquist fue probada en Dahlquist (1956) y la segunda en Dahlquist (1963).

Primera barrera de Dahlquist[editar]

Un método de paso múltiple de paso q escalable a cero no puede alcanzar un orden de convergencia mayor que q + 1 si q es impar y mayor que q + 2 si q es par. Si el método también es explícito, entonces no puede alcanzar un orden mayor que q (Hairer, Nørsett y Wanner, 1993, Thm III.3.5).

Segunda barrera de Dahlquist[editar]

No hay métodos explícitos A-estables y multipaso lineales. Los implícitos tienen un orden de convergencia de 2 como máximo. La regla trapezoidal tiene la menor constante de error entre los métodos de paso múltiple lineal A-estables de orden 2.

Véase también[editar]

Referencias[editar]

  • J. Arrieta, R. Ferreira, R. Pardo y A. Rodríguez-Bernal. "Análisis Numérico de Ecuaciones Diferenciales Ordinarias". Paraninfo, Madrid, 2020. ISBN 9788428344418, ISBN 8428344418.
  • Bashforth, Francis (1883), An Attempt to test the Theories of Capillary Action by comparing the theoretical and measured forms of drops of fluid. With an explanation of the method of integration employed in constructing the tables which give the theoretical forms of such drops, by J. C. Adams, Cambridge ..
  • Butcher, John C. (2003), Numerical Methods for Ordinary Differential Equations, John Wiley, ISBN 978-0-471-96758-3 ..
  • Dahlquist, Germund (1956), «Convergence and stability in the numerical integration of ordinary differential equations», Mathematica Scandinavica 4: 33--53 ..
  • Dahlquist, Germund (1963), «A special stability problem for linear multistep methods», BIT 3: 27-43, ISSN 0006-3835, doi:10.1007/BF01963532 ..
  • Goldstine, Herman H. (1977), A History of Numerical Analysis from the 16th through the 19th Century, New York: Springer-Verlag, ISBN 978-0-387-90277-7 ..
  • Hairer, Ernst; Nørsett, Syvert Paul; Wanner, Gerhard (1993), Solving ordinary differential equations I: Nonstiff problems (2nd edición), Berlin: Springer Verlag, ISBN 978-3-540-56670-0 ..
  • Hairer, Ernst; Wanner, Gerhard (1996), Solving ordinary differential equations II: Stiff and differential-algebraic problems (2nd edición), Berlin, New York: Springer Science+Business Media, ISBN 978-3-540-60452-5 ..
  • Iserles, Arieh (1996), A First Course in the Numerical Analysis of Differential Equations, Cambridge University Press, ISBN 978-0-521-55655-2 ..
  • Milne, W. E. (1926), «Numerical integration of ordinary differential equations», American Mathematical Monthly (Mathematical Association of America) 33 (9): 455-460, JSTOR 2299609, doi:10.2307/2299609 ..
  • Moulton, Forest R. (1926), New methods in exterior ballistics, University of Chicago Press ..
  • Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000), Matematica Numerica, Springer Verlag, ISBN 978-88-470-0077-3 ..
  • Süli, Endre; Mayers, David (2003), An Introduction to Numerical Analysis, Cambridge University Press, ISBN 0-521-00794-1 ..

Enlaces externos[editar]

Weisstein, Eric W. «Adams Method». En Weisstein, Eric W, ed. MathWorld (en inglés). Wolfram Research.