Búsqueda lineal (matemáticas)

De Wikipedia, la enciclopedia libre

En optimización, la estrategia de búsqueda lineal es uno de los dos enfoques iterativos básicos para encontrar un mínimo local de una función objetivo . El otro enfoque es la región de confianza.

El enfoque de búsqueda lineal primero encuentra una dirección de descenso a lo largo de la cual la función objetivo se reducirá y luego calcula un tamaño de paso que determina qué tan lejos debe moverse en esa dirección. La dirección de descenso se puede calcular mediante varios métodos, como el descenso de gradiente o el método cuasi-Newton. El tamaño del paso se puede determinar de forma exacta o inexacta.

Ejemplo de uso[editar]

Un método de gradiente de ejemplo que usa una búsqueda de línea en el paso 4.

  1. Establecer contador de iteraciones , y hacer una suposición inicial por lo mínimo
  2. Repetir:
  3.     Calcular una dirección de descenso
  4.     Elegir minimizar aproximadamente donde
  5.     Actualizar , y
  6. Hasta que < tolerancia

En el paso de búsqueda de línea (4), el algoritmo podría minimizar exactamente h, resolviendo , o aproximando una disminución suficiente en h. Un ejemplo del primero es el método del gradiente conjugado. Esta última se denomina búsqueda lineal inexacta y se puede realizar de varias maneras, como una búsqueda lineal de retroceso o utilizando las condiciones de Wolfe.

Al igual que otros métodos de optimización, la búsqueda lineal se puede combinar con recocido simulado para permitirle saltar sobre algunos mínimos locales.

Algoritmos[editar]

Métodos de búsqueda directa[editar]

En este método, primero se debe poner entre paréntesis el mínimo, por lo que el algoritmo debe identificar los puntos x1 y x2 de modo que el mínimo buscado se encuentre entre ellos. Luego se divide el intervalo calculando en dos puntos internos, x3 y x4, rechazando cualquiera de los dos puntos externos que no sea adyacente al de x3 y x4 que tiene el valor de función más bajo. En los pasos posteriores, solo es necesario calcular un punto interno adicional. De los diversos métodos para dividir el intervalo,[1]la búsqueda de la sección áurea es particularmente simple y efectiva, ya que las proporciones del intervalo se conservan independientemente de cómo proceda la búsqueda:

dónde

Véase también[editar]

Referencias[editar]

  1. Box, M. J.; Davies, D.; Swann, W. H. (1969). Non-Linear optimisation Techniques. Oliver & Boyd. 

Bibliografía[editar]

  • Dennis, J. E., Jr.; Schnabel, Robert B. (1983). «Globally Convergent Modifications of Newton's Method». Numerical Methods for Unconstrained Optimization and Nonlinear Equations. Englewood Cliffs: Prentice-Hall. pp. 111–154. ISBN 0-13-627216-9. 
  • Nocedal, Jorge; Wright, Stephen J. (1999). «Line Search Methods». Numerical Optimization. New York: Springer. pp. 34-63. ISBN 0-387-98793-2. 
  • Sun, Wenyu; Yuan, Ya-Xiang (2006). «Line Search». Optimization Theory and Methods : Nonlinear Programming. New York: Springer. pp. 71-117. ISBN 0-387-24975-3. 

Enlaces externos[editar]