Diferencia entre revisiones de «Multiplicadores de Lagrange»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
Diegusjaimes (discusión · contribs.)
m Revertidos los cambios de 200.48.189.140 a la última edición de Muro Bot
Línea 58: Línea 58:
:<math>g(p_1,p_2,\ldots,p_n)=\sum_{k=1}^n p_k.</math>
:<math>g(p_1,p_2,\ldots,p_n)=\sum_{k=1}^n p_k.</math>


Podemos usar los multiplicadores de Lagrange para hallar los feos valoresde Abril encontrar el punto de máxima entropía (dependiendo de las probabilidades). Para todo ''k'' desde 1 hasta ''n'', necesitamos
Podemos usar los multiplicadores de Lagrange para encontrar el punto de máxima entropía (dependiendo de las probabilidades). Para todo ''k'' desde 1 hasta ''n'', necesitamos


:<math>\frac{\partial}{\partial p_k}(f+\lambda (g-1))=0,</math>
:<math>\frac{\partial}{\partial p_k}(f+\lambda (g-1))=0,</math>

Revisión del 22:46 6 ago 2009

En los problemas de optimización, los multiplicadores de Lagrange, nombrados así en honor a Joseph Louis Lagrange, son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas. Este método introduce una nueva variable escalar desconocida, el multiplicador de Lagrange, para cada restricción y forma una combinación lineal involucrando los multiplicadores como coeficientes. Su demostración involucra derivadas parciales, o bien usando diferenciales totales, o sus parientes cercanos, la regla de la cadena. El fin es, usando alguna función implícita, encontrar las condiciones para que la derivada con respecto a las variables independientes de una función sea igual a cero.

Introducción

Consideremos un caso bidimensional. Supongamos que tenemos la función, f(x, y), y queremos maximizarla, estando sujeta a:

donde c es una constante. Podemos visualizar las líneas de curvas de nivel de f dadas por

para varios valores de dn, y el contorno de g dado por g(x, y) = c. Supongamos que hablamos de la curva de nivel donde g = c. Entonces, en general, las curvas de nivel de f y g serán distintas, cruzando el contorno donde g = c por lo general intersectará y cruzará muchos contornos de f. En general, moviéndose a través de la línea g=c podemos incrementar o disminuir el valor de f. Solo cuando g=c, el contorno que estamos siguiendo toca tangencialmente, pero no lo corta, una curva de nivel de f no incrementamos o disminuimos el valor de f. Esto ocurre en el extremo local restringido y los puntos de inflexión restringidos de f.

Un ejemplo familiar puede ser obtenido de los mapas climatológicos, con sus curvas de nivel de presión y temperatura (isóbaras e isotermas respectivamente): el extremo restringido ocurrirá donde los mapas superpuestos muestren curvas que se tocan.

Geométricamente traducimos la condición de tangencia diciendo que los gradientes de f y g son vectores paralelos en el máximo. Introduciendo un nuevo escalar, λ, resolvemos

[f(x, y) - λ (g(x, y) − c)] = 0

para λ ≠ 0.

Una vez determinados los valores de λ, volvemos al número original de variables y así continuamos encontrando el extremo de la nueva ecuación no restringida.

de forma tradicional. Eso es, para todo (x, y) satisfaciendo la condición porque es igual a cero en la restricción, pero los ceros de F(x, y) están todos en .

El método de los multiplicadores de Lagrange

Sea f (x) una función definida en un conjunto abierto n-dimensional {xRn}. Se definen s restricciones gk (x) = 0, k=1,...,s, y se observa (si las restricciones son satisfechas) que:


Se procede a buscar un extremo para h

lo que es equivalente a


Los multiplicadores desconocidos λk se determinan a partir de las ecuaciones con las restricciones y conjuntamente se obtiene un extremo para h que al mismo tiempo satisface las restricciones (i.e. gk=0), lo que implica que f ha sido optimizada

El método de multiplicadores de Lagrange es generalizado por las condiciones de Karush-Kuhn-Tucker.

Ejemplo

Supongamos que queremos encontrar la distribución probabilística discreta con máxima entropía. Entonces

Evidentemente, la suma de estas probabilidades debe ser exactamente igual a 1, por lo tanto nuestra restricción es g(p) = 1 con

Podemos usar los multiplicadores de Lagrange para encontrar el punto de máxima entropía (dependiendo de las probabilidades). Para todo k desde 1 hasta n, necesitamos

lo que nos da

Derivando estas n ecuaciones, obtenemos

Esto muestra que todo pi es igual (debido a que depende solamente de λ). Usando la restricción ∑k pk = 1, encontramos

Esta (la distribución uniforme discreta) es la distribución con la mayor entropía.

Enlaces externos

Algunos problemas