Discusión:Propiedad de Márkov
2.1 Introducción a los procesos Markovianos
El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permitie encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.
Una Cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las Cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las Cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las Cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
2.1.1 Procesos Markovianos
Un proceso markoviano esta formado por un conjunto de objetos y un conjunto de estados tales que:
1.- En cualquier instante cada objeto deberá encontrarse en uno de los estados.
2.- La probabilidad de que un objeto cambie de un estado a otro durante un intervalo depende del resultado del estado inmediatamente anterior y no de cualquier otro.
Etapas del Proceso:
Es el numero de los periodos transcurrido desde el momento en que se inicia el proceso. Estas pueden ser finitas o infinitas.
Cadena de Markov:
Es un proceso markoviano que tiene un número finito o infinito contable de estados.
Ejemplo 1
Una persona puede escoger entre conducir su automóvil o tomar el tren para ir al trabajo cada día. Supongamos que la persona nunca toma el tren dos días seguidos, pero si conduce hasta el trabajo, entonces al día siguiente puede manejar de nuevo o tomar el tren.
El espacio de estados del sistema es {t, c} Este proceso estocástico es una Cadena de Markov, puesto que el resultado de cualquier día depende únicamente de lo que ha sucedido el día anterior.
La primera fila de la matriz corresponde al hecho de que la persona nunca toma el tren por dos días seguidos, y también a que de manera definitiva conducirá su automóvil al día siguiente de haber tomado el tren. La segunda fila de la matriz corresponde al hecho de que al día siguiente de haber conducido el automóvil la persona conducirá de nuevo el automóvil o tomará el tren con igual probabilidad.