Optimización multiobjetivo

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En un problema de optimización se tratará de encontrar una solución que represente el valor óptimo para una función objetivo.

En el caso más sencillo se tendrá un único objetivo, que estará representado por una función del tipo f:M \rightarrow N , donde M \subset \mathbb{R} y N \subset \mathbb{R}. Tanto el dominio como la imagen de la función serán números reales (escalares), y el valor óptimo corresponderá a un mínimo o a un máximo.


Ejemplo: Al minimizar la función f(x) = x^2 - 5, el valor óptimo es -5, y se da para x = 0, según puede verse en la figura 1.


Figura 1: Mínimo de la función
Figura 1: Mínimo de la función f(x)= x^2 - 5


Extensión a múltiples objetivos[editar]

Pero en ciencias e ingeniería se dan, en bastantes ocasiones, problemas que requieren la optimización simultánea de más de un objetivo (optimización multiobjetivo[1] [2] ). Habrá que optimizar por tanto una función de la forma f:S \rightarrow T, donde S \subset \mathbb{R}^n y T \subset \mathbb{R}^k. Pero el problema está en que normalmente no existe un elemento de S que produzca un óptimo de forma simultánea para cada uno de los k objetivos que componen f. Esto se deberá a la existencia de conflictos entre objetivos, que harán que la mejora de uno de ellos dé lugar a un empeoramiento de algún otro. Pensemos por ejemplo en el caso de un avión con dos objetivos que fueran su velocidad y el ahorro de combustible: un aumento de la velocidad traería consigo una disminución del ahorro. Habrá que llegar por tanto a una situación de compromiso en la que todos los objetivos sean satisfechos en un grado aceptable, desde el punto de vista de diseño.

A diferencia de los problemas de optimización con un único objetivo, el concepto de óptimo es ahora relativo y será necesario decidir de alguna forma cuál es la mejor solución (o cuáles son las mejores soluciones) al problema.

En términos matemáticos, el problema de optimización multiobjetivo, puede establecerse de la siguiente forma:

Encontrar un vector x^* = \left[ x^*_1, x^*_2, \cdots, x^*_n \right]^T, que satisfaga las m restricciones:


g_i(x) \geq 0 \qquad\qquad i=1, 2, \cdots, m \qquad\qquad (1)


y las p restricciones:


h_i(x) = 0 \qquad\qquad i=1, 2, \cdots, p \qquad\qquad (2)


y optimice la función vectorial


f(x) = \left[ f_1(x), f_2(x), \cdots, f_k(x) \right]^T


donde x = \left[ x_1, x_2, \cdots, x_n \right]^T es el vector de variables de decisión.

En otras palabras, se desea determinar la solución particular x^*_1, x^*_2, \cdots, x^*_n, del conjunto S formado por todos los valores que satisfacen (1) y (2), que dé lugar a los valores óptimos para todas las funciones objetivo. Pero como ya se ha comentado, no existe normalmente una solución que optimice de forma simultánea todas las funciones objetivo.

Métodos de solución[editar]

Para tratar el problema comentado del conflicto entre objetivos se han utilizado diversos métodos:

  • Métodos basados en la combinación de objetivos. Dentro de estos métodos se puede mencionar el método de la suma ponderada, en el que se optimizará el valor obtenido mediante la suma de los valores correspondientes a los distintos objetivos, multiplicados cada uno por un coeficiente de peso. Estos coeficientes de peso establecerán la importancia relativa de cada objetivo. El problema de optimización multiobjetivo se transforma así en otro de optimización escalar, que para el caso de la minimización será de la forma
\min \sum^{k}_{i=1}w_i f_i(x)
donde w_i \geq 0 es el coeficiente de peso correspondiente al objetivo i.
Existen variantes del método anterior, como el método de la programación por metas, en el que se establece una meta para cada objetivo y lo que se suma ahora (multiplicado por el correspondiente coeficiente) es la distancia de cada objetivo a su meta. Para un caso de minimización sería
 \min \sum^{k}_{i=1} w_i \left| f_i(x) - M_i \right|
donde M_i representa la meta del i-ésimo objetivo.
  • Métodos basados en la asignación de prioridades. Estos métodos tienen en común que establecen unas prioridades entre los distintos objetivos, teniéndose en cuenta su importacia relativa durante el proceso de optimización.


Todos los métodos anteriores han sido utilizados por distintos autores en combinación con los algoritmos evolutivos, que se han mostrado como una herramienta muy adecuada para resolver este tipo de problemas. Estos métodos pueden englobarse en lo que se conoce como MOEA[3] [4] (Multi-Objective Evolutionary Algorithms, en español algoritmos evolutivos multiobjetivo).


Véase también[editar]

Referencias[editar]

  1. Steuer, R.E. (1986). Multiple Criteria Optimization: Theory, Computations, and Application. New York: John Wiley & Sons, Inc. ISBN 0-471-88846-X. 
  2. Sawaragi, Y.; Nakayama, H. and Tanino, T. (1985). Theory of Multiobjective Optimization (vol. 176 of Mathematics in Science and Engineering). Orlando, FL: Academic Press Inc. ISBN 0-12-620370-9. 
  3. Evolutionary Algorithms for Solving Multi-Objective Problems (Volume 5 of the Book Series on Genetic Algorithms and Evolutionary Computation). Kluwer Academic Publishers. May 2002. ISBN 0-306-46762-3. 
  4. Multi-objective optimization using evolutionary algorithms. Chichester, New York: John Wiley & Sons. 2001.