Discusión:Propiedad de Márkov

Contenido de la página no disponible en otros idiomas.
De Wikipedia, la enciclopedia libre

2.1 Introducción a los procesos Markovianos



El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907, permitie encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado. Con esta información se puede predecir el comportamiento del sistema a través del tiempo.

Una Cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las Cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las Cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las Cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

2.1.1 Procesos Markovianos


Un proceso  markoviano  esta formado  por un conjunto de objetos  y  un conjunto de estados tales que:
  1.-  En cualquier  instante  cada objeto  deberá  encontrarse  en uno de los estados.
  2.- La probabilidad de que  un objeto  cambie de un estado a otro  durante un intervalo   
       depende  del  resultado  del  estado inmediatamente  anterior  y  no de cualquier 
       otro.  	

Etapas del Proceso:

Es el numero de los periodos transcurrido desde el momento en que se inicia el proceso. Estas pueden ser finitas o infinitas.

Cadena  de Markov:  

Es un proceso markoviano que tiene un número finito o infinito contable de estados.

Ejemplo 1

Una persona puede escoger entre conducir su automóvil o tomar el tren para ir al trabajo cada día. Supongamos que la persona nunca toma el tren dos días seguidos, pero si conduce hasta el trabajo, entonces al día siguiente puede manejar de nuevo o tomar el tren.

El espacio de estados del sistema es {t, c} Este proceso estocástico es una Cadena de Markov, puesto que el resultado de cualquier día depende únicamente de lo que ha sucedido el día anterior.

La primera fila de la matriz corresponde al hecho de que la persona nunca toma el tren por dos días seguidos, y también a que de manera definitiva conducirá su automóvil al día siguiente de haber tomado el tren. La segunda fila de la matriz corresponde al hecho de que al día siguiente de haber conducido el automóvil la persona conducirá de nuevo el automóvil o tomará el tren con igual probabilidad.