Cálculo de variaciones

De Wikipedia, la enciclopedia libre
(Redirigido desde «Métodos variacionales»)
Saltar a: navegación, búsqueda

El cálculo de variaciones es un problema matemático consistente en buscar máximos y mínimos (o más generalmente extremos relativos) de funcionales continuos definidos sobre algún espacio funcional. Constituyen una generalización del cálculo elemental de máximos y mínimos de funciones reales de una variable


Historia[editar]

El cálculo de variaciones se desarrolló a partir del problema de la curva braquistócrona, planteado inicialmente por Johann Bernoulli (1696). Inmediatamente este problema captó la atención de Jakob Bernoulli y el Marqués de L'Hôpital, aunque fue Leonhard Euler el primero que elaboró una teoría del cálculo variacional. Las contribuciones de Euler se iniciaron en 1733 con su Elementa Calculi Variationum ('Elementos del cálculo de variaciones') que da nombre a la disciplina.

Lagrange contribuyó extensamente a la teoría y Legendre (1786) asentó un método, no enteramente satisfactorio para distinguir entre máximos y mínimos. Isaac Newton y Gottfried Leibniz también prestaron atención a este asunto.[1] Otros trabajos destacados fueron los de Vincenzo Brunacci (1810), Carl Friedrich Gauss (1829), Siméon Poisson (1831), Mijaíl Ostrogradski (1834) y Carl Jacobi (1837). Un trabajo general particularmente importante es el de Sarrus (1842) que fue resumido por Cauchy (1844). Otros trabajos destacados posteriores son los de Strauch (1849), Jellett (1850), Otto Hesse (1857), Alfred Clebsch (1858) y Carll (1885), aunque quizá el más importante de los trabajos durante el siglo XIX es el de Weierstrass. Este importante trabajo fue una referencia estándar y es el primero que trata el cálculo de variaciones sobre una base firme y rigurosa. Los problema 20 y 23 de Hilbert planteados en 1900 estimularon algunos desarrollos posteriores.[1] Durante el siglo XX, David Hilbert, Emmy Noether, Leonida Tonelli, Henri Lebesgue y Jacques Hadamard, entre otros, hicieron contribuciones notables.[1] Marston Morse aplicó el cálculo de variaciones a lo que actualmente se conoce como teoría de Morse.[2] Lev Semenovich Pontryagin, Ralph Rockafellar y Clarke desarrollaron nuevas herramientas matemáticas dentro de la teoría del control óptimo, generalizando el cálculo de variaciones.[2]

Problema Isoperimétrico[editar]

¿Cuál es el área máxima A que puede rodearse con una curva de longitud L dada? Si no existen restricciones adicionales, pudiendo la solución resulta ser:

Que es el valor que se obtiene para un círculo de radio .

Si se imponen restricciones adicionales la solución es diferente. Un ejemplo es si suponemos que L se considera sobre una función y los extremos de las curva están sobre los puntos donde la distancia entre ellos está dada. Es decir . El problema de hallar una curva que maximice el área entre ella y el eje x sería, hallar una función de modo que:

con las restricciones:

Braquistócrona[editar]

El problema de la curva braquistócrona se remonta a J. Bernoulli (1696). Se refiere a encontrar una curva en el plano cartesiano que vaya del punto al origen de modo que un punto material que se desliza sin fricción sobre ella tarda el menor tiempo posible en ir de al origen. Usando principios de mecánica clásica el problema puede formularse como,

donde g es la gravedad y las restricciones son, , . Hay que notar que en existe una singularidad.

Formulación general[editar]

Uno de los problemas típicos en cálculo diferencial es el de encontrar el valor de para el cual la función alcanza un valor extremo (máximo o mínimo). En el cálculo de variaciones el problema es encontrar una función para la cual un funcional alcance un valor extremo. El funcional está compuesto por una integral que depende de , de la función y algunas de sus derivadas.

(1a)

Donde la función pertenece a algún espacio de funciones (espacio de Banach, espacio de Hilbert), y tanto ella como sus derivadas pueden tener restricciones. Esta fórmula integral puede ser más complicada permitiendo a ser un vector, y por lo tanto incluyendo derivadas parciales para :

(1b)

Espacios funcionales[editar]

La fundamentación rigurosa del cálculo de variaciones requiere considerar variedades diferenciales lineales de dimensión infinita. De hecho el punto de partida del cálculo de variaciones es un teorema de análisis funcional que prueba que es posible considerar una curva en un espacio funcional (e.g. trayectoria en el espacio fásico) simplemente como una función con una variable adicional, concretamente:[3]

La categoría formada por espacios vectoriales convenientes y funciones suaves entre ellos es cerrada por el producto cartesiano, de tal manera que se tiene la siguiente biyección natural:

donde son espacios vectoriales convenientes y la biyección anterior es un difeomorfismo.

El teorema anterior puede aplicarse por ejemplo al principio de mínima acción donde trata de encontrarse la trayectoria posible en el espacio de fases que hace mínima la integral de acción. Dicha trayectoria es una curva suave en el espacio de trayectorias E, considerando ahora:

Se tiene que el problema de minimización puede reducirse a minimizar una cierta función real f de variable real:

Extremos relativos débiles y fuertes[editar]

Un problema variacional requiere que el funcional esté definido sobre un espacio de Banach adecuado. La norma vectorial de dicho espacio es lo que permite definir rigurosamente si una solución es un mínimo o un máximo relativo. Por ejemplo una función es un mínimo relativo si existe un cierto tal que, para toda función se cumpla que:


Véase también[editar]

Referencias[editar]

  1. a b c van Brunt, Bruce (2004). The Calculus of Variations. Springer. ISBN 0-387-40247-0. 
  2. a b [|Ferguson, James] (2004). «Brief Survey of the History of the Calculus of Variations and its Applications». arXiv:arXiv:math/0402357 . 
  3. A. Kriegl y P. Michor, 1989, p. 3

Bibliografía[editar]

Enlaces externos[editar]