Cálculo de variaciones

De Wikipedia, la enciclopedia libre
(Redirigido desde «Métodos variacionales»)
Saltar a: navegación, búsqueda

El cálculo de variaciones es un problema matemático consistente en buscar máximos y mínimos (o más generalmente extremos relativos) de funcionales continuos definidos sobre algún espacio funcional. Constituyen una generalización del cálculo elemental de máximos y mínimos de funciones reales de una variable


Historia[editar]

El cálculo de variaciones se desarrolló a partir del problema de la curva braquistócrona, planteado inicialmente por Johann Bernoulli (1696). Inmediatamente este problema captó la atención de Jakob Bernoulli y el Marqués de L'Hôpital, aunque fue Leonhard Euler el primero que elaboró una teoría del cálculo variacional. Las contribuciones de Euler se iniciaron en 1733 con su Elementa Calculi Variationum ('Elementos del cálculo de variaciones') que da nombre a la disciplina.

Lagrange contribuyó extensamente a la teoría y Legendre (1786) asentó un método, no enteramente satisfactorio para distinguir entre máximos y mínimos. Isaac Newton y Gottfried Leibniz también prestaron atención a este asunto.[1] Otros trabajos destacados fueron los de Vincenzo Brunacci (1810), Carl Friedrich Gauss (1829), Siméon Poisson (1831), Mijaíl Ostrogradski (1834) y Carl Jacobi (1837). Un trabajo general particularmente importante es el de Sarrus (1842) que fue resumido por Cauchy (1844). Otros trabajos destacados posteriores son los de Strauch (1849), Jellett (1850), Otto Hesse (1857), Alfred Clebsch (1858) y Carll (1885), aunque quizá el más importante de los trabajos durante el siglo XIX es el de Weierstrass. Este importante trabajo fue una referencia estándar y es el primero que trata el cálculo de variaciones sobre una base firme y rigurosa. Los problema 20 y 23 de Hilbert planteados en 1900 estimularon algunos desarrollos posteriores.[1] Durante el siglo XX, David Hilbert, Emmy Noether, Leonida Tonelli, Henri Lebesgue y Jacques Hadamard, entre otros, hicieron contribuciones notables.[1] Marston Morse aplicó el cálculo de variaciones a lo que actualmente se conoce como teoría de Morse.[2] Lev Semenovich Pontryagin, Ralph Rockafellar y Clarke desarrollaron nuevas herramientas matemáticas dentro de la teoría del control óptimo, generalizando el cálculo de variaciones.[2]

Problema Isoperimétrico[editar]

¿Cuál es el área máxima A que puede rodearse con una curva de longitud L dada? Si no existen restricciones adicionales, pudiendo la solución resulta ser:

A = \frac{L^2}{4\pi}

Que es el valor que se obtiene para un círculo de radio R = L / 2\pi.

Si se imponen restricciones adicionales la solución es diferente por ejemplo, si se considera que L se considera sobre una función f(x) y los extremos de las curva están sobre los puntos A=(a,0), B=(b,0) donde la distancia entre ellos está dada. Es decir AB = L\,. El problema de hallar una curva que maximice el área entre ella y el eje x sería, hallar una función f(x) de modo que:

\max_{f:[a,b]\to\R} I[f]=\int_a^b f(x) dx

con las restricciones:

\begin{cases} G[f] = \int_a^b \sqrt{1+(f'(x))^2} dx = L & \mbox{longitud de arco} \\
f(a) = f(b) = 0 \end{cases}

Braquistócrona[editar]

El problema de la curva braquistócrona se remonta a J. Bernoulli (1696). Se refiere a encontrar una curva en el plano cartesiano que vaya del punto P = (x_0,y_0) al origen de modo que un punto material que se desliza sin fricción sobre ella tarda el menor tiempo posible en ir de P al origen. Usando principios de mecánica clásica el problema puede formularse como,

\min_f T[f]=\int_{0}^{x_0}\frac {\sqrt{1+(f'(x))^2}}
{\sqrt{2g(y_0-y)}}\ dx

donde g es la gravedad y las restricciones son, f(0)=0, f(x_0)=y_0. Hay que notar que en x=x_0 existe una singularidad.

Formulación general[editar]

Uno de los problemas típicos en cálculo diferencial es el de encontrar el valor de x\, para el cual la función f(x)\, alcanza un valor extremo (máximo o mínimo). En el cálculo de variaciones el problema es encontrar una función  f(x) para la cual un funcional J[f]\, alcance un valor extremo. El funcional J[f] está compuesto por una integral que depende de x, de la función f(x) y algunas de sus derivadas.

(1a)\max_f / \min_f \left\{ I[f]=\int_a^b \mathcal{L}(x,f(x),f'(x),f''(x),\dots,f^{(n}(x))\,dx \right\}

Donde la función f(x) pertenece a algún espacio de funciones (espacio de Banach, espacio de Hilbert), y tanto ella como sus derivadas pueden tener restricciones. Esta fórmula integral puede ser más complicada permitiendo a x ser un vector, y por lo tanto incluyendo derivadas parciales para f:

(1b)\max_\mathbf{f} / \min_\mathbf{f} \left\{ J[\mathbf{f}]=\int_{\mathcal{D}\subset \R^n}
\mathcal{L}(\mathbf{x},\mathbf{f}(\mathbf{x}),D\mathbf{f}(\mathbf{x}),\dots,D^n\mathbf{f}(\mathbf{x}))\,d^n\mathbf{x} \right\}

Espacios funcionales[editar]

La fundamentación rigurosa del cálculo de variaciones requiere considerar variedades diferenciales lineales de dimensión infinita. De hecho el punto de partida del cálculo de variaciones es un teorema de análisis funcional que prueba que es posible considerar una curva en un espacio funcional (e.g. trayectoria en el espacio fásico) simplemente como una función con una variable adicional, concretamente:[3]

La categoría formada por espacios vectoriales convenientes y funciones suaves entre ellos es cerrada por el producto cartesiano, de tal manera que se tiene la siguiente biyección natural:

C^\infty(E\times F,G) \approx C^\infty(E,C^\infty(F,G))

donde \scriptstyle E, F son espacios vectoriales convenientes y la biyección anterior es un difeomorfismo.

El teorema anterior puede aplicarse por ejemplo al principio de mínima acción donde trata de encontrarse la trayectoria posible en el espacio de fases que hace mínima la integral de acción. Dicha trayectoria es una curva suave en el espacio de trayectorias E, considerando ahora:

E = C^\infty(\R,\R^n),\quad F = G = \R

Se tiene que el problema de minimización puede reducirse a minimizar una cierta función real f de variable real:

f_{q_0}(\varepsilon):= S[q_0+\varepsilon \delta q], \qquad S:\C^\infty(\R^n)\to\R,\ 
S[q]:=\int_{t_1}^{t_2} \mathcal{L}(q(t),\dot{q}(t),t)\ dt,\  q(t)\in \R^n

Extremos relativos débiles y fuertes[editar]

Un problema variacional requiere que el funcional \scriptstyle J(f) esté definido sobre un espacio de Banach \scriptstyle (V,\|\cdot\|_V) adecuado. La norma vectorial de dicho espacio es lo que permite definir rigurosamente si una solución es un mínimo o un máximo relativo. Por ejemplo una función \scriptstyle f_0 es un mínimo relativo si existe un cierto \scriptstyle \delta>0 tal que, para toda función \scriptstyle f se cumpla que:

\|f- f_0\| < \delta \quad \Rightarrow \quad J(f_0) \le J(f)


Véase también[editar]


Referencias[editar]

  1. a b c van Brunt, Bruce (2004). The Calculus of Variations. Springer. ISBN 0-387-40247-0. 
  2. a b [|Ferguson, James] (2004). «Brief Survey of the History of the Calculus of Variations and its Applications». arXiv:arXiv:math/0402357 . 
  3. A. Kriegl y P. Michor, 1989, p. 3

Bibliografía[editar]