Control lineal cuadrático gaussiano

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

En la teoría de control, el problema de control lineal cuadrático gaussiano (LQG) es uno de los más fundamentales de control óptimo. Se refiere a sistemas lineales inciertos perturbados por ruido blanco gaussiano aditivo, que tiene la información de estado incompleta (es decir, no todas las variables de estado se miden y disponible para la regeneración) y sometidos a control de sujetos a cuadráticas costes. Además, la solución es única y constituye una ley de control de realimentación dinámico lineal que se calcula y fácil de implementar. Finalmente el controlador LQG también es fundamental para el control óptimo de los sistemas no lineales perturbados.[1]

El controlador LQG es simplemente la combinación de un filtro de Kalman es decir, un estimador lineal cuadrática (LQE) con un regulador lineal cuadrático (LQR). El principio de separación garantiza que estos pueden ser diseñados y calculan de forma independiente. LQG de control se aplica tanto a los sistemas lineales invariantes en el tiempo , así como sistemas de variables en el tiempo lineales. La aplicación a los sistemas invariantes en el tiempo lineales es bien conocido. La aplicación de sistemas de variables en el tiempo lineal permite el diseño de controladores de captación lineal para sistemas inciertos no lineales.

El controlador LQG en sí es un sistema dinámico como el sistema que controla. Ambos sistemas tienen la misma dimensión estado. Por lo tanto la aplicación de la controlador LQG puede ser problemático si la dimensión del estado del sistema es grande. El problema LQG de orden reducido (problema LQG orden fijo) supera está fijando a priori el número de estados del controlador LQG. Este problema es más difícil de resolver porque ya no es separable. También la solución ya no es único. A pesar de estos hechos algoritmos numéricos están disponibles[2] [3] [4] [5] para resolver los asociados ecuaciones de proyección óptimos[6] [7] que constituyen condiciones necesarias y suficientes para que un controlador LQG de orden reducido localmente óptima.[2]

Por último, una palabra de precaución. LQG optimalidad no garantiza automáticamente buenas propiedades de solidez.[8] La estabilidad robusta del sistema de circuito cerrado debe ser revisado por separado después de que el controlador LQG ha sido diseñado. Promover robustez algunos de los parámetros del sistema puede suponer estocástico en lugar de determinista. El problema de control más difícil asociada conduce a un controlador óptimo similar de la cual sólo los parámetros del controlador son diferentes.[3]

Descripción matemática del problema y la solución[editar]

Tiempo continuo[editar]

Considere el sistema dinámico lineal,

donde representa el vector de las variables de estado del sistema, el vector de las entradas de control y el vector de salidas medidas disponibles para la retroalimentación. Tanto ruido blanco gaussiano aditivo sistema y aditivo blanco gaussiano ruido de medición afectar el sistema. Teniendo en cuenta este sistema el objetivo es encontrar la historia entrada de control que en cada momento puede depender sólo de las últimas mediciones de tal manera que la siguiente función de costo se minimiza,

donde denota el valor esperado. La hora final (horizonte) puede ser finito o infinito. Si el horizonte tiende a infinito el primer término de la función de coste se convierte en insignificante e irrelevante para el problema. Además de mantener los costos finitas la función de coste hay que tener para ser .

Referencias[editar]

  1. Athans M. (1971). «The role and use of the stochastic Linear-Quadratic-Gaussian problem in control system design». IEEE Transaction on Automatic Control. AC-16 (6): 529-552. doi:10.1109/TAC.1971.1099818. 
  2. a b Van Willigenburg L.G., De Koning W.L. (2000). «Numerical algorithms and issues concerning the discrete-time optimal projection equations». European Journal of Control 6 (1): 93-100.  Associated software download from Matlab Central.
  3. a b Van Willigenburg L.G., De Koning W.L. (1999). «Optimal reduced-order compensators for time-varying discrete-time systems with deterministic and white parameters». Automatica 35: 129-138. doi:10.1016/S0005-1098(98)00138-1.  Associated software download from Matlab Central.
  4. Zigic D., Watson L.T., Collins E.G., Haddad W.M., Ying S. (1996). «Homotopy methods for solving the optimal projection equations for the H2 reduced order model problem». International Journal of Control 56 (1): 173-191. doi:10.1080/00207179208934308. 
  5. Collins Jr. E.G, Haddad W.M., Ying S. (1996). «A homotopy algorithm for reduced-order dynamic compensation using the Hyland-Bernstein optimal projection equations». Journal of Guidance Control & Dynamics 19 (2): 407-417. doi:10.2514/3.21633. 
  6. Hyland D.C, Bernstein D.S. (1984). «The optimal projection equations for fixed order dynamic compensation». IEEE Transaction on Automatic Control. AC-29 (11): 1034-1037. doi:10.1109/TAC.1984.1103418. 
  7. Bernstein D.S., Davis L.D., Hyland D.C. (1986). «The optimal projection equations for reduced-order discrete-time modeling estimation and control». Journal of Guidance Control and Dynamics 9 (3): 288-293. doi:10.2514/3.20105. 
  8. Green, Limebeer: Linear Robust Control, p. 27