Concurrencia (informática)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda
Los "Filósofos comiendo", problema clásico que implica el uso de concurrencia

En ciencias de la computación, concurrencia es una propiedad de los sistemas en la cual los procesos de un cómputo se hacen simultáneamente, y pueden interactuar entre ellos. Los cálculos (operaciones) pueden ser ejecutados en múltiples procesadores, o ejecutados en procesadores separados físicamente o virtualmente en distintos hilos de ejecución. Un sin número de modelos matemáticos han sido desarrollados para cálculos de la concurrencia en general incluyendo redes de Petri, procesos Calculi, el modelo máquina de accesos random en paralelo, el Modelo Actor y el Lenguaje Reo.

Temas[editar]

Como los procesos en un sistema concurrente pueden interactuar entre ellos mismos mientras se están ejecutando, el número de posibles rutas de ejecución en el sistema puede ser extremadamente grande, y el resultado final puede ser indeterminado. El concurrente uso de recursos compartidos puede ser una fuente de indeterminación dirigida a asuntos como Bloqueo mutuo, y Inanición (starvation).[1]

El diseño de sistemas concurrentes a menudo implican la búsqueda de técnicas confiables para coordinar su ejecución, el intercambio de información, asignación de memoria, y una ejecución programada para minimizar la respuesta de tiempo y maximizar el rendimiento o (cantidad de datos que se pueden transmitir por un canal u otro dispositivo de entrada).[2]

Teoría[editar]

La teoría de la concurrencia ha sido un campo activo de investigación en Ciencias de la Computación. En una de las primeras propuestas el trabajo de Carl Adam Petri fue un paso inicial en los inicios de los 60. Desde esos tiempos una amplia variedad de formalismos han sido desarrollados para dar ejemplos y razonar sobre la concurrencia.

Modelos[editar]

Una serie de formalismos para ejemplificar y comprender sistemas concurrentes han sido desarrollados, incluyendo. [3]

  • La Máquina de Acceso Random Paralelos[4]
  • El Modelo Actor
  • Puentes computacionales y modelos como el BSP.
  • Las Redes de Petri
  • Procesos calculi
  • El modelo de Comunicación Secuencial de Procesos
  • Espacios de tuplas, e.g., Linda (lenguaje coordinado)
  • SCOOP (software) (Programación orientada a objetos concurrente simple)
  • Lenguaje Reo

Algunos de estos ejemplos de concurrencia están ante todo con la intención de sostener el razonamiento y la especificación, mientras otros pueden ser usados a través de todo el ciclo de desarrollo, incluyendo diseño, implementación, comprobación, experimentación y simulación de sistemas concurrentes. Algunos de estos están basados en el paso de mensajes mientras otros tiene diferente mecanismos para la concurrencia.

La proliferación de diferentes modelos de concurrencia ha motivado a algunos investigadores o científicos a unificar estos modelos teóricos. Por ejmplo, Lee y Sangiovanni-Vincentelli han demostrado que la entonces llamada "tagged-signal" puede ser usada para proporcionar un marco de trabajo común para definir el denotational semantics de una variedad de modelos de concurrencia diferentes,[5]​ mientras Nielsen, Sassone, and Winskel han demostrado que category theory puede ser usada para proporcionar un entendimiento similar al de los diferentes modelos.[6]

El teorema de la representación concurrente en el Actor model proporciona una manera para representar los problemas concurrentes que están cercanos en el sentido de que no reciben comunicación del exterior. (Otros sistemas concurrentes, ejemplo: process calculi puede ser modelado en el Actor model usando a two-phase commit protocol.[7]​)

En este sentido, S puede ser matemáticamente caracterizado en términos de todos sus posibles comportamientos.

Lógica[editar]

Varios tipos de lógicas temporales[8]​ pueden ser usados para ayudar a razonar sobre los sistemas concurrentes. Algunas lógicas como la lógica temporal lineal y la lógica de árboles computacionales permiten decidir por cuales estados puede pasar el sistema concurrente. La principal meta de estas lógicas es en la escritura de especificaciones para los sistemas concurrentes.

Práctica[editar]

La programación concurrente envuelve lenguajes de programación y algoritmos usados para implementar los sistemas concurrentes. La programación concurrente es considerada más general que la programación paralela porque puede envolver comunicación de patrones dinámicamente. Los sistemas paralelos siempre tienen un sistema de comunicación bien construido. La meta final de la programación concurrente incluye correctness, performance and robustness. Sistemas concurrentes como los Sistemas Operativos y sistemas de manejo de bases de datos están generalmente diseñados para operar indefinidamente, incluyendo recuperación automática de las fallas, y no terminar su ejecución inesperadamente. Algunos sistemas concurrentes implementan una concurrencia transparente, en el cual las entidades de concurrencia computacional por un único recurso compartido, pero las complejidades de las mismas están escondidas del programador.

Como ellas usan recursos compartidos, los sistemas concurrentes en general requieren la inclusión de un tipo de arbiter en algún lugar en la implementación (normalmente en el hardware), para controlar los accesos a esos recursos. El uso arbitrario introduce la posibilidad de indeterminacy in concurrent computation que tiene mayores implicaciones en la práctica, incluyendo la correctitud y el rendimiento.

Algunos modelos de programación concurrente incluyen coprocesses y deterministic concurrency. En estos modelos, hilos de control explícitamente mantienen esos pequeños espacios de tiempos, ya sea al sistema o a otro proceso.

Referencias[editar]

  1. Cleaveland, Rance; Scott Smolka (diciembre de 1996). «Strategic Directions in Concurrency Research». ACM Computing Surveys 28 (4): 607. doi:10.1145/242223.242252. 
  2. Campbell, Colin; Johnson, Ralph; Miller, Ade; Toub, Stephen (agosto de 2010). Parallel Programming with Microsoft .NET. Microsoft Press. ISBN 978-0-7356-5159-3. 
  3. Filman, Robert; Daniel Friedman (1984). Coordinated Computing - Tools and Techniques for Distributed Software. McGraw-Hill. ISBN 0-07-022439-0. 
  4. Keller, Jörg; Christoph Keßler; Jesper Träff (2001). Practical PRAM Programming. John Wiley and Sons. 
  5. Lee, Edward; Alberto Sangiovanni-Vincentelli (diciembre de 1998). «A Framework for Comparing Models of Computation». IEEE Transactions on CAD 17 (12): 1217-1229. doi:10.1109/43.736561. 
  6. Mogens Nielsen; Vladimiro Sassone and Glynn Winskel (1993). «Relationships Between Models of Concurrency». REX School/Symposium. 
  7. Frederick Knabe. Un protocolo distribuido para comunicacines basadas en canales con Choice PARLE 1992.
  8. Roscoe, Colin (2001). Modal and Temporal Properties of Processes. Springer. ISBN 0-387-98717-7. 

Lecturas Adicionales[editar]

  • Lynch, Nancy A. (1996). Distributed Algorithms. Morgan Kauffman. ISBN 1-55860-348-4. 
  • Tanenbaum, Andrew S.; Van Steen, Maarten (2002). Distributed Systems: Principles and Paradigms. Prentice Hall. ISBN 0-13-088893-1. 
  • Kurki-Suonio, Reino (2005). A Practical Theory of Reactive Systems. Springer. ISBN 3-540-23342-3. 
  • Garg, Vijay K. (2002). Elements of Distributed Computing. Wiley-IEEE Press. ISBN 0-471-03600-5. 
  • Magee, Jeff; Kramer, Jeff (2006). Concurrency: State Models and Java Programming. Wiley. ISBN 0-470-09355-2. 

Enlaces externos[editar]