Teoría del control
La teoría del control es un campo interdisciplinario de la ingeniería y las matemáticas, que tiene que ver con el comportamiento de sistemas dinámicos. A la entrada de un sistema se le llama referencia. Cuando una o más variables de salida de un sistema necesitan seguir cierta referencia sobre el tiempo, un controlador manipula la entrada al sistema para obtener el efecto deseado en la salida del sistema (realimentación)[1]. La realimentación puede ser negativa (regulación autocompensatoria) o positiva (efecto "bola de nieve" o "círculo vicioso"). Es de gran importancia en el estudio de la ecología trófica y de poblaciones.
La teoría de control se ocupa del "sistema de control" de los "sistemas dinámicos" en los procesos y máquinas de ingeniería. El objetivo es desarrollar un modelo o algoritmo que gobierne la aplicación de las entradas del sistema para conducirlo a un estado deseado, minimizando cualquier retardo, sobreimpulso o error de estado estacionario y asegurando un nivel de control estabilidad; a menudo con el objetivo de alcanzar un grado de optimidad.
Para ello, se requiere un controlador con el comportamiento correctivo necesario. Este controlador monitoriza la variable de proceso controlada (PV), y la compara con la referencia o punto deseado (punto de set) (SP). La diferencia entre el valor real y el deseado de la variable del proceso, denominada señal de error, o error SP-PV, se aplica como realimentación para generar una acción de control que lleve la variable del proceso controlada al mismo valor que el punto de consigna. Otros aspectos que también se estudian son la controlabilidad y la observabilidad. Esta es la base del tipo avanzado de automatización que revolucionó la fabricación, la aviación, las comunicaciones y otras industrias. Se trata del control por retroalimentación, que consiste en tomar medidas mediante un sensor y realizar ajustes calculados para mantener la variable medida dentro de un rango establecido mediante un "elemento de control final", como una válvula de control.[2]
Se suele hacer un amplio uso de un estilo diagramático conocido como diagrama de bloques. En él la función de transferencia, también conocida como función del sistema o función de red, es un modelo matemático de la relación entre la entrada y la salida basado en las ecuaciones diferenciales que describen el sistema.
La teoría de control data del siglo XIX, cuando la base teórica del funcionamiento de los gobernadores fue descrita por primera vez por James Clerk Maxwell.[3] La teoría de control fue impulsada por Edward Routh en 1874, Charles Sturm y en 1895, Adolf Hurwitz, quienes contribuyeron al establecimiento de criterios de estabilidad de control; y a partir de 1922, el desarrollo de la teoría de control PID por Nicolas Minorsky.[4] Aunque una de las principales aplicaciones de la teoría de control matemática es en la ingeniería de sistemas de control, que se ocupa del diseño de sistemas de control de procesos para la industria, otras aplicaciones van mucho más allá. Como teoría general de los sistemas de retroalimentación, la teoría de control es útil dondequiera que se produzca la retroalimentación - por lo que la teoría de control también tiene aplicaciones en las ciencias de la vida, la ingeniería informática, la sociología y la investigación de operaciones.[5]
Historia
[editar]Aunque los sistemas de control de diversos tipos se remontan a la antigüedad, un análisis más formal del campo comenzó con un análisis de la dinámica del regulador centrífugo, realizado por el físico James Clerk Maxwell en 1868, titulado Sobre los reguladores.[6] Ya se utilizaba un regulador centrífugo para regular la velocidad de los molinos de viento.[7] Maxwell describió y analizó el fenómeno de autooscilación, en el que los retardos en el sistema pueden llevar a una sobrecompensación y a un comportamiento inestable. Esto generó una oleada de interés en el tema, durante la cual el compañero de clase de Maxwell, Edward John Routh, resumió los resultados de Maxwell para la clase general de sistemas lineales.[8] Independientemente, Adolf Hurwitz analizó la estabilidad del sistema utilizando ecuaciones diferenciales en 1877, dando lugar a lo que hoy se conoce como el teorema de Routh-Hurwitz.[9][10]
Una aplicación notable del control dinámico fue en el área de los vuelos con tripulación. Los hermanos Wright realizaron sus primeros vuelos de prueba con éxito el 17 de diciembre de 1903, y se distinguieron por su capacidad de controlar sus vuelos durante periodos considerables (más que por la capacidad de producir sustentación de un avión, que era conocida). Era necesario un control continuo y fiable del avión para que los vuelos duraran más de unos pocos segundos.
En la Segunda Guerra Mundial, la teoría del control se convirtió en un importante campo de investigación. Irmgard Flügge-Lotz desarrolló la teoría de los sistemas de control automático discontinuo, y aplicó el control Sí/No al desarrollo de equipo de control de vuelo automático para aviones.[11][12] Otros ámbitos de aplicación de los controles discontinuos son los sistemas de control de disparo de proyectiles, sistemas de guiado de misiles y electrónica.
En ocasiones, se utilizan métodos mecánicos para mejorar la estabilidad de los sistemas. Por ejemplo, los estabilizadores de barco son aletas montadas bajo la línea de flotación y que emergen lateralmente. En los buques contemporáneos, pueden ser aletas activas controladas giroscópicamente, que tienen la capacidad de cambiar su ángulo de ataque para contrarrestar el balanceo causado por el viento o las olas que actúan sobre el buque.
La carrera espacial también dependía de un control preciso de las naves espaciales, y la teoría de control también ha visto un uso creciente en campos como la economía y la inteligencia artificial. Aquí, se podría decir que el objetivo es encontrar un modelo interno que obedezca al teorema del buen regulador. Así, por ejemplo, en economía, cuanto más exactamente un modelo de comercio (de acciones o de materias primas) represente las acciones del mercado, más fácilmente podrá controlar ese mercado (y extraer "trabajo útil" (beneficios) de él). En el ámbito de la IA, un ejemplo podría ser un chatbot que modele el estado del discurso de los seres humanos: cuanto más exactamente pueda modelar el estado humano (por ejemplo, en una línea de asistencia telefónica), mejor podrá manipular al ser humano (por ejemplo, para que realice las acciones correctivas para resolver el problema que causó la llamada telefónica a la línea de asistencia). Estos dos últimos ejemplos toman la estrecha interpretación histórica de la teoría de control como un conjunto de ecuaciones diferenciales que modelan y regulan el movimiento cinético, y la amplían a una vasta generalización de un regulador que interactúa con una planta o equipo.
Teoría de control clásica
[editar]Para superar las limitaciones del controlador de lazo abierto, la teoría de control introduce la retroalimentación. Un controlador de lazo cerrado utiliza la retroalimentación para controlar estados o variables de salida de un sistema dinámico. Su nombre proviene de la trayectoria de la información en el sistema: las entradas del proceso (por ejemplo, la tensión aplicada a un motor eléctrico) tienen un efecto en las salidas del proceso (por ejemplo, la velocidad o el par del motor), que se mide con sensores y es procesado por el controlador; el resultado (la señal de control) se "devuelve" como entrada al proceso, cerrando el bucle.
Los controllladores de bucle cerrado tienen las siguientes ventajas sobre los controladores de lazo abierto:
- Rechazo de perturbaciones (como las colinas en el ejemplo del control de crucero).
- Rendimiento garantizado incluso con incertidumbres del modelo, cuando la estructura del modelo no coincide perfectamente con el proceso real y los parámetros del modelo no son exactos.
- Los procesos de inestabilidad pueden ser estabilizados
- reducción de la sensibilidad a las variaciones de los parámetros
- mejora del rendimiento del seguimiento de la referencia
En algunos sistemas, el control en lazo cerrado y en lazo abierto se utilizan simultáneamente. En tales sistemas, el control de lazo abierto se denomina feedforward y sirve para mejorar aún más el rendimiento del seguimiento de referencia.
Una arquitectura común de control en lazo cerrado es el controlador PID.
Control con realimentación PID
[editar]Un controlador proporcional–integral–derivativo (controlador PID) es un mecanismo de realimentación de lazos de control, usado muy ampliamente como método de control.
Un controlador PID calcula de manera continua un valor error e(t) como la diferencia entre el valor o setpoint deseado y la variable de proceso medida y aplica una corrección basada en términos proporcional, integral y derivativo. PID se refiere a las iniciales de Propoctional-Integral-Derivativo, en referencia a los tres términos que operan con la señal error para producir la señal de control.
La comprensión teórica y los primeros usos se desarrollaron en la década de 1920, y se encuentran implementados en casi todos los sistemas de control análogos; originalmente en controladores mecánicos, y luego utilizando electónica discreta y posteriormente en computadoras de procesos industriales. El controlador PID es probablemente el diseño de controlador con realimentación más utilizado.
Si u(t) es la señal de control enviada al sistema, y(t) es la salida medida y r(t) es la salida deseada, y e(t) = r(t) − y(t) es el error registrado, un controlador PID tiene la siguiente forma general
La dinámica deseada de lazo abierto se obtiene ajustando los valores de los´tres parámetros KP, KI y KD, a menudo de manera iterativa y sin un conocimiento específico del modelo de la planta. A menudo se puede asegurar la estabilidad usando únicamente el término proporcional. El término integral permite evitar una perturbación escalón (a menudo una especificación en el control de sistemas). El término derivativo es usado para proveer damping or shaping of the response. Los controladores PID son el tipo de sistemas de control más utilizados: sin embargo, no pueden ser utilizados en varios casos más complicados, especialmente si se trata de sistemas con múltiples variables de referencia y múltiples variables de control (sistemas MIMO).
Aplicando una transformación de Laplace se obtiene la ecuación transformada del controlador PID
siendo la función de transferencia del controlador PID
Como un ejemplo del ajuste de un controlador PID en el sistema de lazo cerrado H(s), considérese una planta de primer orden expresada mediante
donde A y TP son ciertas constantes. La salida de la planta es realimentada ´mediante
donde TF es también constante. Si se define , KD = KTD, y , se peuede expresar la función de transferencia del controlador PID en forma de serie como
Insertando P(s), F(s), y C(s) en la función de transferencia de lazo cerrado H(s), se tiene que asignando
H(s) = 1. Con el ajuste mostrado en este ejemplo, la salida del sistema se ajusta exactamente a la señal deseada o de referencia.
Sin embargo, en la práctica, un derivador puro no es ni físicamente realizable ni deseable[13] debido a la amplificación del ruido y los modos resonantes en el sistema. Por lo tanto, se suelen utilizar un compensador de avance-retraso (en inglés: phase-lead compensator) o un derivador con filtro pasa-bajos.
Referencias
[editar]- ↑ William S. (1996). The Control Handbook. New York: CRC Press. ISBN 978-0-849-38570-4.
- ↑ Bennett, Stuart (1992). Una historia de la ingeniería de control, 1930-1955. IET. p. 48. ISBN 978-0-86341-299-8.
- ↑ Maxwell, J. C. (1868). pdf «On Governors». Proceedings of the Royal Society 100.
- ↑ Minorsky, Nicolas (1922). «Estabilidad direccional de cuerpos de dirección automática». Journal of the American Society of Naval Engineers 34 (2): 280-309. doi:10.1111/j.1559-3584.1922.tb04958.x.
- ↑ GND. «Katalog der Deutschen Nationalbibliothek (Control de la autoridad)». portal.dnb.de. Consultado el 26 de abril de 2020.
- ↑ Maxwell, J.C. (1868). «On Governors». Proceedings of the Royal Society of London 16: 270-283. JSTOR 112510. doi:10.1098/rspl.1867.0055.
- ↑ «Control Theory: History, Mathematical Achievements and Perspectives | E. Fernández-Cara1 y E. Zuazua».
- ↑ Routh, E.J.; Fuller, A.T. (1975). Estabilidad del movimiento. Taylor & Francis.
- ↑ Routh, E.J. (1877). Tratado sobre la estabilidad de un estado de movimiento dado, particularmente el movimiento estacionario: Movimiento particularmente estable. Macmillan and co.
- ↑ Hurwitz, A. (1964). «Sobre las condiciones bajo las cuales una ecuación tiene sólo raíces con partes reales negativas». Documentos seleccionados sobre tendencias matemáticas en la teoría de control.
- ↑ Flugge-Lotz, Irmgard; Titus, Harold A. (octubre 1962). «Control óptimo y cuasi-óptimo de sistemas de tercer y cuarto orden». Informe técnico de la Universidad de Stanford (134): 8-12. Archivado desde dtic.mil/dtic/tr/fulltext/u2/621137.pdf el original el 27 de abril de 2019.
- ↑ Hallion, Richard P. (1980). Notable American Women: The Modern Period: A Biographical Dictionary. Cambridge, Mass.: Belknap Press of Harvard University Press. pp. 241-242. ISBN 9781849722704. (requiere registro).
- ↑ Ang, K.H.; Chong, G.C.Y.; Li, Y. (2005). «PID control system analysis, design, and technology». IEEE Transactions on Control Systems Technology 13 (4): 559-576. S2CID 921620. doi:10.1109/TCST.2005.847331.
Bibliografía
[editar]- Karl J. Åström and Richard M. Murray (2008). Feedback Systems: An Introduction for Scientists and Engineers.. Princeton University Press. ISBN 0691135762.
- Christopher Kilian (2005). Modern Control Technology. Thompson Delmar Learning. ISBN 1-4018-5806-6.
- Vannevar Bush (1929). Operational Circuit Analysis. John Wiley and Sons, Inc.
- Robert F. Stengel (1994). Optimal Control and Estimation. Dover Publications. ISBN 978-0-486-68200-6.
- Franklin et al. (2002). Feedback Control of Dynamic Systems (4 edición). New Jersey: Prentice Hall. ISBN 0-13-032393-4.
- Joseph L. Hellerstein, Dawn M. Tilbury, and Sujay Parekh (2004). Feedback Control of Computing Systems. John Wiley and Sons. ISBN 978-0-471-26637-2.
- Diederich Hinrichsen and Anthony J. Pritchard (2005). Mathematical Systems Theory I - Modelling, State Space Analysis, Stability and Robustness. Springer. ISBN 0-978-3-540-44125-0.
- Andrei, Neculai (2005). Modern Control Theory - A historical Perspective. Consultado el 10 de octubre de 2007.
- Sontag, Eduardo (1998). Mathematical Control Theory: Deterministic Finite Dimensional Systems. Second Edition. Springer. ISBN 0-387-984895.
- Goodwin, Graham (2001). Control System Design. Prentice Hall. ISBN 0-13-958653-9.
Para Ingeniería Química
[editar]- Luyben, William (1989). Process Modeling, Simulation, and Control for Chemical Engineers. Mc Graw Hill. ISBN 0-07-039159-9.