lecturas-cadenas de markov
DESCRIPTION
metodos cuantitativosTRANSCRIPT
©Prof. Raúl Espejo Rodarte
UABC
VALLE DORADO
FCAYS
2. MÉTODOS CUANTITATIVOS AVANZADOS
2.12. LECTURAS
2.12.3. Cadenas de Markov
UABC FCAyS (795) 1
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Son sistemas matemáticos que experimentan transiciones de un estado a otro en un espacio de estados.
Una cadena de Markov es una serie de eventos aleatorios, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas son procesos caracterizados por su
falta de memoria. “olvidan” toda la cadena de eventos anteriores, y solamente el último evento
condiciona las posibilidades del próximo evento. Esta dependencia del evento anterior distingue a las
cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Tienen muchas aplicaciones como modelos estadísticos de procesos del mundo real.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los
deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el método en 1907,
permite encontrar la probabilidad de que un sistema se encuentre en un estado en particular en un
momento dado. Algo más importante aún, es que permite encontrar el promedio a la larga o las
probabilidades de estado estable para cada estado. Con esta información se puede predecir el
comportamiento del sistema a través del tiempo.
La tarea más difícil es reconocer cuándo puede aplicarse. La característica más importante que hay
que buscar en la memoria de un evento a otro.
2.12.3.1. Ejemplos:
1. El movimiento aleatorio en la recta numérica, en cada periodo la posición puede cambiar con la
misma probabilidad hacia adelante o hacia atrás. Las probabilidades de incrementar son las
mismas que de decrementar. Desde cada posición hay dos posibles transiciones: el siguiente entero
o el anterior. Por ejemplo si la posición actual es la 7, entonces la transición a 6 tiene una
probabilidad de .5, sin importar que haya sucedido antes.
2.12.3.1.1. Aplicación a la administración:
2.12.3.1.1.1. Planeación de Personal.
El análisis de transición puede ser útil al planear satisfacer las necesidades de personal. Muchas firmas
emplean trabajadores de diferentes niveles de clasificación dentro de la misma categoría de trabajo. Esto
es común para personal de confianza, oficinistas, obreros calificados, no calificados y personal
profesional. La firma debe tener el número de empleados en cada nivel de clasificación para
proporcionar la oportunidad de promoción adecuada, cumplir con las habilidades necesarias para el
trabajo y controlar la nómina. Una planeación de personal a largo plazo apropiada requiere que se
considere el movimiento de personas tanto hacia arriba en el escalafón de clasificación como hacia
afuera de la organización. El análisis de Markov puede ayudar en este esfuerzo de planeación. El
movimiento de personal a otras clasificaciones puede considerarse como una cadena de Markov.
UABC FCAyS (795) 2
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Se supone que hay tres clasificaciones; el grado 1 es la más baja. Además, los descensos se consideran
raros y se omiten. El estado “salen” es absorbente, el cual incluye renuncias, ceses, despidos,
jubilaciones y muertes. Por supuesto, todos los empleados finalmente alcanzan este estado. Las
transiciones del grado 1 al grado 2 y del grado 2 al grado 3 representan promociones. Como
transiciones de probabilidad, están controladas por la firma, puede establecerse el nivel que la firma
determine que es necesario para cumplir sus objetivos. Como ejemplo, supóngase que la firma tiene en
este momento 30 empleados del nivel 3, 90 empleados del grado 2 y 300 empleados del grado 1 y que
desea mantener este nivel de empleados durante el próximo año. Por experiencia, se espera que salgan el
30% de los empleados de grado 1 al año, el 20% de los empleados de grado 2 y el 10% de aquellos que
están en el grado 3. ¿Si la política es contratar sólo en los niveles de clasificación más bajos, cuántos se
deben contratar y cuántos se deben promover el siguiente año para mantener estables los niveles? Este
problema puede resolverse sin el análisis de Markov, pero el modelo es útil para ayudar a conceptualizar
el problema. Como se trata sólo de un ciclo, se usa el análisis de transición. El análisis comienza con el
grado más alto. No se hacen promociones pero el 10%, o sea 3, sale. Todos ellos deben de reemplazarse
por promociones del grado 2. En el nivel de clasificación 2, el 20% sale y se deben promover 3, con una
pérdida de 21. Esto se debe compensar por promoción del grado 1. Al pasar al grado 1, el 30% sale y
21 deben promoverse, lo cual una pérdida total de 111. Por tanto, el siguiente año se deben contratar
111 empleados del nivel 1. En este ejemplo se derivan algunas tasas de transición a partir de
consideraciones externas.
2.12.3.1.2. Otras Aplicaciones
2.12.3.1.2.1. Economía y finanzas
Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones para
determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de
valores o para determinar la volatilidad de los precios. En los negocios, las cadenas de Markov se han
utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo.
2.12.3.1.2.2. Biología
2.12.3.1.2.2.1. Hábitos Alimenticios.
Una creatura que come frutas, carne y verduras, con las siguientes reglas: solo come una vez al día, si
ayer comió carne, ahora no y comer frutas o verduras tiene la misma probabilidad. Si ahora come frutas,
mañana comerá frutas con una probabilidad de .1, verduras con probabilidad de .5 o carne con una
probabilidad de .4. Cuando coma verduras, al día siguiente consumirá exclusivamente frutas (40% de
probabilidad), o carne con un 60% de probabilidad. Su régimen alimenticio puede ser modelado con una
cadena de Markov, ya que su selección actual solo depende de la selección anterior. Una propiedad
estadística que se podría calcular es el porcentaje esperado de tiempo en que esta criatura come carne, en
un periodo de tiempo muy largo.
2.12.3.1.2.2.2. Estrategia Alimenticia.
UABC FCAyS (795) 3
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
La estrategia de la araña. En un cuarto que dividimos en tres espacios:
A la entrada
B la vecindad de la telaraña,
T la telaraña,
Con dimensiones A >> B >> T.
La mosca presenta un vuelo errático (para confundir a sus
depredadores).
Estando en A, tiene probabilidades de permanecer en A (90%),
pasar a B (10%) y no tiene forma de llegar a la telaraña.
Estando en B, tiene probabilidad de pasar a A (40%),
permanecer en B (45%), caer en la telaraña (5%).
Estando en la telaraña significa su muerte, por lo que las
posibilidades de pasar a las zonas A y B es 0 y la de permanecer
en T es de 100%.
En este ejemplo el estado T (†la muerte) es un estado
absorbente, porque una vez que el sistema se encuentra en ese estado, no lo abandona jamás.
Se demuestra, por cadenas de Markov, que todas las moscas que entren al cuarto cerrado, tarde o
temprano caen en la telaraña, que a pesar de estar escondida y ser pequeña, demuestra ser una estrategia
infalible. (Recordemos que el metabolismo de la araña es muy lento y puede vivir en estado suspendido,
casi sin consumir alimento durante mucho tiempo, el movimiento en la telaraña la reanima, bajando
rápidamente por su alimento). Muchos depredadores tienen esta estrategia: Tortuga caimán, los
cocodrilos, muchos peces, etc.
2.12.3.1.2.3. Meteorología
Si consideramos el clima de una región a través de distintos días, es claro que el estado actual solo
depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov
para formular modelos climatológicos básicos. Por ejemplo se han desarrollado modelos de recurrencia
de las lluvias basados en cadenas de Markov.3
2.12.3.1.2.3.1. Determinación del clima
En Ensenada, BC, México llueve después de un día soleado en aproximadamente 20 días al año, y en
5 ocasiones de esos días lluviosos, también llueve al día siguiente.
Soleado Lluvioso S L Soleado 345/365=0.9452 20/365=0.0548 rrrrrrrrrrrrrrrr S 0.9452 0.0548 Lluvioso 15/20=.75 5/20=.25 L .75 .25
Dadas la condición actual puede predecirse la siguiente:
Ahora está lloviendo x0=[0, 1]; mañana: 𝐱𝟏 = [𝟎 𝟏] [. 𝟗𝟒𝟓𝟐 . 𝟎𝟓𝟒𝟖. 𝟕𝟓 . 𝟐𝟓
] = [. 𝟕𝟓 . 𝟐𝟓] hay una
probabilidad de 75% que mañana esté soleado.
En el análisis se obtiene que se llega al estado estable, que indica que la probabilidad de lluvias es de
6.8% y de que no llueva 93.2%
T
B
A
UABC FCAyS (795) 4
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.3.1.2.4. Simulación
Las cadenas de Markov son utilizadas para proveer una solución analítica a ciertos problemas de
simulación, por ejemplo en teoría de colas el Modelo M/M/14 es de hecho un modelo de cadenas de
Markov.
2.12.3.1.2.1. Física
Se usan en muchos problemas de la termodinámica y la física estadística.
2.12.3.1.2.1.1. Cadena de Ehrenfest
Modela el intercambio de moléculas de gas entre dos urnas. Apéndice
2.12.3.1.2.1.2. Modelo de Difusión de Laplace
Apéndice
2.12.3.1.2.2. Juegos de azar
Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov. El modelo
de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de
azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro.
Los juegos de tablero jugados con dados: Turista, Monopolio, Serpientes y Escaleras, la Oca, etc.
en los que la próxima casilla solo depende de la casilla en que se encuentre actualmente el jugador, y un
evento probabilístico normado por el (los) dado(s). Pueden determinarse las probabilidades de
ocurrencia de las diferentes celdas, en las que hay algunas que tienen una probabilidad mayor y son en
las que se ubican penalidades o castigos.
2.12.3.1.2.3. Genética
Se emplean cadenas de Markov en teoría de genética de poblaciones, para describir el cambio de
frecuencias génicas en una población pequeña con generaciones discretas, sometida a deriva genética.
Ha sido empleada en la construcción del modelo de difusión de Motō Kimura.
2.12.3.1.2.4. Música
Diversos algoritmos de composición musical usan cadenas de Markov, por ejemplo el software
Csound o Max
2.12.3.1.2.5. Operaciones
Se emplean cadenas de Markov en inventarios, mantenimiento, flujo de proceso
2.12.3.1.2.6. Redes Neuronales
Se utilizan en las máquinas de Boltzmann (redes neuronales)
2.12.3.1.2.1. Modelos epidemiológicos
Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-Watson. Éste
es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una
epidemia (véase modelaje matemático de epidemias).
UABC FCAyS (795) 5
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.3.1.2.2. Internet
El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a través de
una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su
peso en la distribución estacionaria de la cadena.
2.12.3.1.2.3. Caso de Aplicación:
2.12.3.1.2.3.1. Análisis de Participación de Mercado.
El análisis de transición puede ser útil para analizar la lealtad del público. La fidelidad de un cliente a
un mercado particular solo se puede manejar de manera estadística y por tanto, probabilística. En el
devenir del tiempo, este estadístico aleatorio corresponde a una variable estocástica. Se trata de estimar
la probabilidad de que un cliente que usó un mercado, regrese a ese mercado. La investigación pretende
contabilizar cuantos clientes de un supermercado (Suriana), hacen su siguiente compra en dicho
almacén. Una planeación de lealtad comercial a largo plazo apropiada requiere que se considere el
movimiento de clientes tanto hacia otra tienda como hacia ésta, pues no se puede estimar el costo de la
pérdida de un cliente. El análisis de Markov puede ayudar en este esfuerzo de planeación: El
movimiento de clientes a otros mercados puede considerarse como una cadena de Markov.
Se ha determinado que del seguimiento de los clientes del almacén Suriana Bahía, indica que el 93%
de ellos hicieron su compra anterior en esta misma tienda. Y que 8% de los clientes hicieron sus
compras en esta tienda pero la vez anterior no.
Suriana Otro Suriana .93 1-.93=.07 Otro .08 1 - .08 = .92
𝑴 = [. 𝟗𝟑 . 𝟎𝟕. 𝟎𝟖 . 𝟗𝟐
]
En este ejemplo se derivan algunas probabilidades de transición a partir de consideraciones externas.
2.12.4. Conceptos básicos
2.12.4.1. Estados
Llamamos un estado a la condición única de un elemento del espacio de estados que denotaremos por
S: un conjunto exhaustivo y mutuamente excluyente de todas las posibilidades en que puede estar el
sistema. A los diferentes estados los nombraremos si donde i es un elemento del conjunto formado por
todos los números enteros no negativos desde 1 hasta n, que es el número de estados posibles. Al estado
inicial, si se requiere, lo llamaremos s1.
2.12.4.1.1. Ejemplo
Todos los estados posibles son S= {1, 2, 3, 4,5}. Generalizando S= {s1, s2,…s5}, en donde n es 5. Otra
forma de escribirlo es S= {si}, con i є {1, 2, 3, 4, 5}.1
1 i es un elemento del conjunto cuyos elementos son 1, 2, 3, 4 y 5
0 1 0 .93 .07 1 .08 .92
UABC FCAyS (795) 6
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
st, representa el estado del sistema en el tiempo t, una categoría mutuamente exclusiva y
colectivamente exhaustiva con característica de interés medible en el tiempo t, Por ejemplo, el proceso
estocástico, s1, s2, s3, … puede representar la colección de niveles de inventario semanales (o mensuales)
de un producto dado, o puede representar la colección de demandas semanales (o mensuales) de este
producto.
2.12.4.2. Tiempos Discretos
Aunque es posible definir procesos de Markov en tiempo continuo, se simplifican los problemas si
establecemos que el sistema solo es evaluado en momentos precisos, sin poder decir nada de las
condiciones y posibles situaciones que pudieran suceder entre observaciones del sistema. Podemos asumir
que los cambios que suceden entre observaciones no son significativos en relación al cambio que hay
entre dichos instantes.
2.12.4.3. Espacio de Estados
Un modelo de Markov consiste en una serie de eventos aleatoriamente seleccionados de un conjunto de
estados discretos (Espacio de Estados). Este conjunto (S) es colectivamente exhaustivo2 y mutuamente
excluyente3. Describe todos los posibles estados donde el sistema puede estar y cada estado excluye la
ocurrencia de todos los demás. La transición del estado i a j ocurre con una probabilidad Pi,j
Podemos pensar en un modelo de Markov como una simple línea de transferencia.
2.12.4.4. Proceso Estocástico
Un proceso estocástico se define como una colección indexada de variables aleatorias
{St}= {s0, s1, s2,…, st,…}, donde el subíndice t toma valores de un conjunto T dado, que frecuentemente
se toma como el conjunto de los enteros no negativos (como el tiempo discreto).
2.12.4.5. Procesos de Markov
Se dice que un proceso estocástico tiene la propiedad markoviana (de primer orden) si el estado en el
lapso de tiempo t (actual) es st, en el próximo lapso de tiempo
P{ st+1 = j | s0 =k0, s1 =k1, s2 =k2 , … st-1 = kt-1 , st= i}= P {st+1 =j | st = i }4,
Para toda t = 1, 2, … y para toda sucesión { k0, k1, k2 , … , kt-1, i, j}5. (Historia previa de estados).
El siguiente estado solo depende del estado actual, y su probabilidad de llegar al siguiente estado.
Se puede demostrar que esta propiedad markoviana es equivalente a establecer una probabilidad
condicional de cualquier “evento” futuro dados cualesquier “eventos“ pasados y el estado actual xt+1, es
independiente de todo evento anterior a xt.
Las probabilidades condicionales P{st+1 = j | st = i} se llaman probabilidades de transición. Si para cada
i y j, P{st+1=j | st=i}=p{s2=j|s1=i}, para toda t = 1, 2, …
2 Que todos los estados posibles son elementos de dicho conjunto
3 Que solo existe posibilidad de estar en uno (y sólo uno) de los estados factibles en un tiempo dado.
4 Probabilidad de que el siguiente estado sea j dado que todos los estados anteriores fueron conocidos, es igual a la
probabilidad de que el estado siguiente sea i solamente está condicionada al estado actual
__________________________________________________________________________________________________ 5 Toda la historia previa del sistema
UABC FCAyS (795) 7
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Entonces se dice que las probabilidades de transición (de un paso) son estacionarias (La probabilidad
de pasar de un estado i a un estado j siempre es la misma), y por lo general se denotan por pi,j. Así, tener
probabilidades de transición estacionarias implica que las probabilidades de transición no cambian con el
tiempo. En otras palabras, el siguiente estado solo depende del estado actual.
La existencia de probabilidades de transición estacionarias (de un paso) también implica que, para cada
i, j y n (n=1,2,…): P{st+n=j|st=i}=P{sn=j|s1=i}, para toda t=1,2,⋯. Estas probabilidades condicionales
casi siempre se denotan por pi,j y se llaman probabilidades de transición de n pasos. Así, pi,j es
simplemente la probabilidad condicional de que la variable aleatoria s, comenzando en el estado i, se
encuentre en el estado j después de n pasos (unidades de tiempo).
Como la pi,j son probabilidades condicionales, deben satisfacer las propiedades:
𝟎 ≤ 𝐏𝐢,𝐣(𝐧)≤ 𝟏 ∀ 𝐢, 𝐣; 𝐧 = 𝟏, 𝟐,⋯
6
𝟏 = ∑ 𝐏𝐢,𝐣(𝐧)𝐧
𝐣=𝟏 7
Condiciones suficientes para definir una distribución de probabilidad.
2.12.4.1. Orden
Es el número de estados previos que definen el nuevo estado, aquí solo discutimos cadenas de primer
orden pues sólo dependen del estado anterior.
2.12.4.2. Ensayos
Llamamos un ensayo a la observación del estado en el momento oportuno. Es un elemento del espacio
de estados.
2.12.4.3. Transiciones
Es el cambio de un estado a otro. Dentro del espacio de estados, el proceso empieza en algún estado, y
se mueve sucesivamente de un estado a otro. Cada uno de estos cambios de estado le llamamos etapa, si
actualmente se encuentra en el estado i, y consecuentemente se moverá al estado j, con una probabilidad
pi,j, que no depende de que estados antecedieron al estado actual. Si esta es constante se dice que el
sistema es estacionario.
La probabilidad pi,j, se llama probabilidad de transición. El estado puede permanecer en ese mismo
estado con probabilidad pi,i. Una distribución de probabilidad inicial, definida en S, especifica el estado
inicial. Usualmente se establece que es un estado inicial
2.12.4.3.1. Homogeneidad
Una cadena de Markov se dice homogénea si la probabilidad de ir del estado i al estado j en un paso no
depende del tiempo en el que se encuentra la cadena, esto es:
𝐏(𝐱𝐧 = |𝐱𝐧−𝟏 = 𝐢) = 𝐏(𝐱𝟏 = 𝐣|𝐱𝟎 = 𝐢) Para todo n y para cualquier i, j. Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no se cumple
diremos que la cadena de Markov es no homogénea
6 Todos son números positivos menores o iguales que 1
7 Todas juntas suman 1
UABC FCAyS (795) 8
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.3.2. Recurrente
En una cadena de Markov con espacio de estados E, si x ∈ E se define la probabilidad de recurrencia del
estado x (que eventualmente pueda a volver a estar en ese estado)
𝐿𝑥 = 𝑃(𝑥𝑛 = 𝑥 𝑝𝑎𝑟𝑎 𝑎𝑙𝑔𝑢𝑛𝑎 𝑛 ∈ 𝑁 | 𝑥0 = 𝑥) Es la probabilidad de que estando en algún estado, pueda volver a estar en él, en algún periodo futuro.
Y diremos que:
x es estado recurrente si Lx = 1 es seguro que estando en algún estado, pueda volver a estar en él.
2.12.4.3.2.1. Transitorio
x es transitorio si Lx < 1 hay estados en los que la posibilidad de volver a suceder no es seguro.
2.12.4.3.2.2. Absorbente
Un estado x es absorbente si
𝑝𝑥,𝑥 = 1
Una clase de comunicación es clase recurrente si todos sus estados son recurrentes.
Sea , si x∈Ediremos que:
x es cero-recurrente si
x es positivo-recurrente si
El real se interpreta como el tiempo promedio de recurrencia.
2.12.4.3.3. Periódico
El periodo de un estado x∈E se define como:
donde denota el máximo común divisor.
Si d(x)=1 diremos que x es un estado aperiódico.
Una cadena de Markov se dice aperiódica si todos sus estados son aperiódicos.
2.12.4.4. Cadenas irreducibles
Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones
(equivalentes entre sí):
Desde cualquier estado de E se puede acceder a cualquier otro.
Todos los estados se comunican entre sí.
C(x)=E para algún x∈E.
C(x)=E para todo x∈E.
El único conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de
Markov irreducibles.
2.12.4.5. Cadenas positivo-recurrentes
Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si la
cadena es además irreducible es posible demostrar que existe un único vector de probabilidad invariante y
está dado por:
UABC FCAyS (795) 9
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.6. Cadenas regulares
Ergódico
Una cadena de Markov se dice regular (también primitiva o ergódica) si existe alguna potencia positiva
de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transición de la cadena se tiene que:
donde W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que
resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, éste vector
invariante es único.
2.12.4.7. Cadenas absorbentes
Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones
siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algún estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos
los siguientes resultados:
Su matriz de transición siempre se puede llevar a una de la forma
donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz
nula y R alguna submatriz.
, esto es, no importa en donde se encuentre la cadena, eventualmente
terminará en un estado absorbente.
2.12.4.8. Diagramas de transiciones
Es un grafo dirigido en el que los estados se representan como globos y las transiciones como flechas,
rotuladas con una probabilidad, como el que se muestra en la figura siguiente, en la que se ilustra un
sistema de Markov con cinco estados posibles: S= {s1, s2, s3, s4 y s5}. La probabilidad condicional o de
transición de moverse de un estado a otro se indica en el diagrama como p1,2 (probabilidad de ir al estado
1 al estado 2).
Significan una herramienta idónea para entender el problema y asignarle las características de diseño
como fase inicial para la elaboración de la matriz de transición.
UABC FCAyS (795) 10
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.8.1. Probabilidades de transición
La medida de posibilidades de cambiar de un estado a otro le llamamos probabilidad de transición. Son
probabilidades de estar en un nuevo estado, condicionadas de haber estado en otro. La probabilidad de
que i sea el siguiente evento generado es una probabilidad condicional: probabilidad de estar en el estado j dado que estaba en el estado i: P(j | i). Esto se llama probabilidad de transición del estado i al estado j que
denotaremos por pij. Para describir completamente una cadena de Markov es necesario conocer todos los
estados y todas las probabilidades de transición.
Todas las posibilidades de salir de un estado hacen el evento seguro, esto es, la suma de las
probabilidades de salir de un estado es 1. Esto hace de cada estado y sus posibles transiciones una
Distribución de Probabilidad
2.12.4.9. Matriz de transición
Otro recurso para definir las probabilidades de transición, es usar una matriz de transición. La matriz
de transición para el ejemplo del diagrama de estados se muestra a continuación:
Estado Final 1 2 3 4 5
Inicial
1 P1,1 P1,2 0 0 P1,5 P1,1+p1,2+p1,5=1 2 0 P2,2 P2,3 0 P2,5 P2,2+p2,3+p2,5=1
3 0 P3,2 P3,3 P3,4 P3,5 P3,2+p3,3+p3,4+p3,5=1
4 0 0 0 P4,4 P4,5 P4,4+p4,5=1 5 0 0 0 0 P5,5 P5,5=1
Generalizando para una matriz de transición de m estados:
P1,1
S1 S2
S5
P1,2
S4
P3,3
P3,4
P3,3
S3
P2,2
P24
P2,5
P3,2 P2,3
P3,4 P3,5
P5,5
P1,5
UABC FCAyS (795) 11
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Estado Final 1 2 3 … m
Inicial
1 P1,1 P1,2 P1,3 … P1,m P= 2 P2,1 P2,2 P2,3 … P2,m 3 P3,1 P3,2 P3,3 … p2m … … … … … … m pm1 pm2 pm2 … pmm
Si se define a M como la matriz de transición de un paso8:
𝐌(𝟏) = 𝐌 = [
𝐩𝟏,𝟏 𝐩𝟏𝟐𝐩𝟐,𝟏 𝐩𝟐,𝟐
⋯ 𝐩𝟏,𝐦⋯ 𝐩𝟐,𝐦
⋮ ⋮𝐩𝐦,𝟏 𝐩𝐦,𝟐
⋱ ⋮⋯ 𝐩𝐦,𝐦
]
Donde Pi,j es la probabilidad (condicional) de pasar al estado j habiendo estado en el estado i , lo que
ocasiona una suma horizontal de 1 pues hay una certeza de que habiendo estado en el estado i pase a
cualquier estado, lo que significa que los estados son mutuamente excluyentes y colectivamente
exhaustivos.
Cada renglón constituye una distribución de probabilidad, que como tal tiene las siguientes
características:
𝟎 ≤ 𝐩𝐢,𝐣 ≤ 𝟏 ∀ 𝐢, 𝐣 ∈ {𝟏, 𝟐,⋯ , 𝐧} 9
𝟏 = ∑ 𝐩𝐢,𝐣 𝐧𝐣=𝟏 ∀ 𝐢 ∈ {𝟏, 𝟐,⋯ , 𝐧} 10
La matriz M, proporciona una completa descripción del proceso de Markov la cual se usará para hacer
los análisis correspondientes para responder numerosas preguntas sobre el sistema.
2.12.4.9.1. Vector de Estados Iniciales
Es un renglón que indica una distribución de probabilidad de estar en los diferentes estados en este
momento �⃗⃗� (𝟎)
. Si se multiplica por M, se obtiene las probabilidades en el periodo siguiente.
�⃗⃗� (𝟏)= �⃗⃗�
(𝟎)𝐌
Así, empezando en el estado [1,0], que significa haber sido cliente en Suriana, la probabilidad para la
etapa siguiente es
[𝟏, 𝟎] [. 𝟗𝟑 . 𝟎𝟕. 𝟎𝟖 . 𝟗𝟐
]=[.93, 07]
2.12.4.9.2. Probabilidad de transición de n pasos.
Una vez que se ha definido la matriz de transición, que es de un solo lapso de tiempo (se trata de una
cadena de Markov de primer orden), es posible obtener la matriz de transición a dos o más periodos de
tiempo. Para ello hay que considerar todos los estados intermedios posibles
8 El superíndice n no se escribe cuando n=1.
9 0 menor o igual que la probabilidad de pasar del estado i al estado j menor o igual que 1 para toda i y j elementos del
conjunto cuyos elementos son 1, 2, etcétera, hasta en número m 10
1 es igual a la suma de todas las transiciones posibles desde un estado i, para todos los estados posibles.
UABC FCAyS (795) 12
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.2.1. Representación de árbol
Para mostrar cómo es que para cada transición se deben tomar los estados intermedios factibles
presentamos el siguiente diagrama de árbol. Como todos estos son procesos independientes, pues no hay
ninguna relación entre si, las probabilidades de dos eventos consecutivos se multiplican para obtener la
probabilidad de que así suceda.
UABC FCAyS (795) 13
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
S1
S1
S1 P11*P11
P(S1|S1)= P11*P11 + P12*P21 + … +P1m*Pm1
𝐏(𝐒𝟏 | 𝐒𝟏) = ∑𝐏𝟏,𝐤
𝐧
𝐤=𝟏
∙ 𝐏𝐤,𝟏
S2 P11*P12 ⁞ ⁞
Sm P11*P1m
S2
S1 P12*P21 S2 P12*P22 ⁞ ⁞
Sm P12*P2m ⁞ ⁞
⁞ ⁞
⁞ ⁞
Sm
S1 P1m*Pm1 S2 P1m*Pm2 ⁞ .
Sm P1m*Pmm
S2
S1
S1 P21*P11
P(S1|S2)= P11*P12 + P12*P22 + … +P1m*Pm2
𝐏(𝐒𝟏 | 𝐒𝟐) = ∑𝐏𝟏,𝐤
𝐧
𝐤=𝟏
∙ 𝐏𝐤,𝟐
S2 P21*P12 ⁞ ⁞
Sm P21*P1m
S2
S1 P22*P21 S2 P22*P22 ⁞ ⁞
Sm P22*P2m ⁞ ⁞
⁞ ⁞
⁞ ⁞
Sm
S1 P2m*Pm1 S2 P2m*Pm2 ⁞ ⁞
Sm P2m*Pmm ⁞ ⁞
⁞ ⁞
⁞ ⁞
⁞ ⁞
Sm
S1
S1 Pm1*P11
P(S1|Sm)= P11*P1m + P12*P2m + … +P1m*Pmm
𝐏(𝐒𝟏 | 𝐒𝐧) = ∑𝐏𝟏,𝐤
𝐧
𝐤=𝟏
∙ 𝐏𝐤,𝐧
S2 Pm1*P12 ⁞ ⁞
Sm Pm1*P1m
S2
S1 Pm2*P21 S2 Pm2*P22 ⁞ ⁞
Sm Pm2*P2m ⁞ ⁞
⁞ ⁞
⁞ ⁞
Sm
S1 Pmm*Pm1 S2 Pmm*Pm2 ⁞ ⁞
Sm P2m*Pmm
UABC FCAyS (795) 14
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
𝐏(𝐬𝐢|𝐬𝐣) = ∑𝐩𝐢,𝐤 ∙ 𝐩𝐤,𝐣 ∀ 𝐢, 𝐣 ∈ {𝟏, 𝟐, 𝟑.⋯ ,𝐦}
𝐧
𝐤=𝟏
11
Conforme al algoritmo de multiplicación de matrices:
C=A·B
Matrices de dimensiones a * b y b * c, dan como resultado una matriz a * c. En matrices, el orden de los
factores si altera el producto. Hay matrices que no se pueden multiplicar
𝐜 = [
𝐚𝟏,𝟏 𝐚𝟏,𝟐𝐚𝟐,𝟏 𝐚𝟐,𝟐
⋯ 𝐚𝟏,𝐧⋯ 𝐚𝟐,𝐧
⋮ ⋮𝐚𝐦,𝟏 𝐚𝐦,𝟐
⋱ ⋮⋯ 𝐚𝐦,𝐧
] ∙
[ 𝐛𝟏,𝟏 𝐛𝟏,𝟐𝐛𝟐,𝟏 𝐛𝟐,𝟐
⋯ 𝐛𝟏,𝐪⋯ 𝐛𝟐,𝐪
⋮ ⋮𝐛𝐧,𝟏 𝐛𝐧,𝟐
⋱ ⋮⋯ 𝐛𝐧,𝐪]
𝐂 =
[ 𝐚𝟏,𝟏 ∙ 𝐛𝟏,𝟏 + 𝐚𝟏,𝟐 ∙ 𝐛𝟐,𝟏 +⋯+ 𝐚𝟏,𝐧 ∙ 𝐛𝐧,𝟏 𝐚𝟏,𝟏 ∙ 𝐛𝟏,𝟐 + 𝐚𝟏,𝟐 ∙ 𝐛𝟐,𝟐 +⋯+ 𝐚𝟏,𝐧 ∙ 𝐛𝐧,𝟐𝐚𝟐,𝟏 ∙ 𝐛𝟏,𝟏 + 𝐚𝟐,𝟐 ∙ 𝐛𝟐,𝟏 +⋯+ 𝐚𝟐,𝐧 ∙ 𝐛𝐧,𝟏 𝐚𝟐,𝟏 ∙ 𝐛𝟏,𝟐 + 𝐚𝟐,𝟐 ∙ 𝐛𝟐,𝟐 +⋯+ 𝐚𝟐,𝐧 ∙ 𝐛𝐧,𝟐
⋯⋯
⋮ ⋮𝐚𝐦,𝟏 ∙ 𝐛𝟏,𝟏 + 𝐚𝐦,𝟐 ∙ 𝐛𝟐,𝟏 +⋯+ 𝐚𝐦𝐧 ∙ 𝐛𝐧,𝟏 𝐚𝐦,𝟏 ∙ 𝐛𝟏,𝟐 + 𝐚𝐦,𝟐 ∙ 𝐛𝟐,𝟐 +⋯+ 𝐚𝐦,𝐧 ∙ 𝐛𝐧,𝟐
⋱⋯ ]
𝐂 =
[ ∑𝐚𝟏,𝐣 ∙ 𝐛𝐣,𝟏
𝐧
𝐣=𝟏
∑𝐚𝟏,𝐣 ∙ 𝐛𝐣,𝟐
𝐧
𝐣=𝟏
∑𝐚𝟐,𝐣 ∙ 𝐛𝐣,𝟏
𝐧
𝐣=𝟏
∑𝐚𝟐,𝐣 ∙ 𝐛𝐣,𝟐
𝐧
𝐣=𝟏
⋯ ∑𝐚𝟏,𝐣 ∙ 𝐛𝐣,𝐪
𝐧
𝐣=𝟏
⋯ ∑𝐚𝟐,𝐣 ∙ 𝐛𝐣,𝐪
𝐧
𝐣=𝟏
⋮ ⋮
∑𝐚𝐦,𝐣 ∙ 𝐛𝐣,𝟏
𝐧
𝐣=𝟏
∑𝐚𝐦,𝐣 ∙ 𝐛𝐣,𝟐
𝐧
𝐣=𝟏
⋱ ⋮
⋯ ∑𝐚𝐦,𝐣 ∙ 𝐛𝐣,𝐪
𝐧
𝐣=𝟏 ]
Al producto de una matriz cuadrada (necesariamente) por si misma le llamamos cuadrado (notación que
se extiende a cualquier potencia). Observando la analogía con las fórmulas obtenidas del árbol anterior:
𝐌𝟐 = 𝐌 ∙ 𝐌 =
[ ∑𝐩𝟏,𝐣 ∙ 𝐩𝐣,𝟏
𝐧
𝐣=𝟏
∑𝐩𝟏,𝐣 ∙ 𝐩𝐣,𝟐
𝐧
𝐣=𝟏
∑𝐩𝟐,𝐣 ∙ 𝐩𝐣,𝟏
𝐧
𝐣=𝟏
∑𝐩𝟐,𝐣 ∙ 𝐩𝐣,𝟐
𝐧
𝐣=𝟏
⋯ ∑𝐩𝟏,𝐣 ∙ 𝐩𝐣,𝐧
𝐧
𝐣=𝟏
⋯ ∑𝐩𝟐,𝐣 ∙ 𝐩𝐣,𝐧
𝐧
𝐣=𝟏
⋮ ⋮
∑𝐩𝐧,𝐣 ∙ 𝐩𝐣,𝟏
𝐧
𝐣=𝟏
∑𝐩𝐧,𝐣 ∙ 𝐩𝐣,𝟐
𝐧
𝐣=𝟏
⋱ ⋮
⋯ ∑𝐩𝐧,𝐣 ∙ 𝐩𝐣,𝐧
𝐧
𝐣=𝟏 ]
𝐌𝟐 = [
𝐏(𝐬𝟏 → 𝐬? → 𝐬𝟏) 𝐏(𝐬𝟏 → 𝐬? → 𝐬𝟐)𝐏(𝐬𝟐 → 𝐬? → 𝐬𝟏) 𝐏(𝐬𝟐 → 𝐬? → 𝐬𝟐)
⋯ 𝐏(𝐬𝟏 → 𝐬? → 𝐬𝐦)⋯ 𝐏(𝐬𝟐 → 𝐬? → 𝐬𝐦)
⋮ ⋮𝐏(𝐬𝐦 → 𝐬? → 𝐬𝟏) 𝐏(𝐬𝐦 → 𝐬? → 𝐬𝟐)
⋱ ⋮⋯ 𝐏(𝐬𝐦 → 𝐬? → 𝐬𝐦)
]
11
Probabilidad de que suceda Si dado que sucedió Sj, es igual a la suma desde k=1 hasta k=n de los productos de las
probabilidades de transición 𝐩𝐢,𝐤 𝑝𝑜𝑟 𝐩𝐤,𝐣 , para toda i, j elementos del conjunto {1, 2,3,…, n}.
UABC FCAyS (795) 15
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
𝐌𝟐 =
[ 𝐩𝟏,𝟏
(𝟐)𝐩𝟏,𝟐(𝟐)
𝐩𝟐,𝟏(𝟐)
𝐩𝟐,𝟐(𝟐)
⋯ 𝐩𝟏,𝐧(𝟐)
⋯ 𝐩𝟐,𝐧(𝟐)
⋮ ⋮
𝐩𝐦,𝟏(𝟐)
𝐩𝐦,𝟐(𝟐)
⋱ ⋮
⋯ 𝐩𝐦,𝐦(𝟐)
]
Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular estas probabilidades de
transición de n pasos:
𝐏𝐢,𝐣(𝐧)=∑𝐏𝐢,𝐤
(𝐦)∙ 𝐏𝐤,𝐣
(𝐧−𝐦) ∀ 𝐢, 𝐣, 𝐤 𝐲 𝟎 ≤ 𝐦 ≤ 𝐧
𝐦
𝐤=𝟎
Estas ecuaciones simplemente señalan que al ir de un estado i al estado j en n pasos, el proceso estará en
algún estado k después de exactamente m (menor que n) pasos.
Es solo la probabilidad condicional de que, si se comienza en el estado i, el proceso vaya al estado k
después de m pasos y después al estado j en n- m pasos.
Los casos especiales de m=1 y m=n-1 conducen a las siguientes expresiones, para toda i, j, y n de lo
cual resulta que las probabilidades de transición de n pasos se pueden obtener a partir de las
probabilidades de transición de un paso de manera recursiva. Para n=2,
𝐌𝐢,𝐣(𝟐)=∑𝐩𝐢,𝐤 ∙ 𝐌𝐤,𝐣 ∀ 𝐢, 𝐣, 𝐧
𝐧
𝐤=𝟏
Note que las 𝐩𝐢,𝐣(𝟐)
son los elementos de la matriz 𝐌𝟐, pero también debe de observarse que estos
elementos, se obtienen multiplicando la matriz de transición de un paso por sí misma; esto es:
𝐌𝟐 = 𝐌 ∗ 𝐌. En términos más generales, se concluye que la matriz de probabilidades de transición de n pasos se
puede obtener de la expresión:
M(n) = M * M .... M = Mn = MMn-1 = Mn-1 M.
Entonces, la matriz de probabilidades de transición de n pasos se puede obtener calculando la n-ésima
potencia de la matriz de transición de un paso. Para valores no muy grandes de n, la matriz de transición
de n pasos se puede calcular en la forma que se acaba de describir, pero cuando n es grande, tales cálculos
resultan tediosos y, más aún, los errores de redondeo pueden causar inexactitudes.
2.12.4.9.2.1.1. Vector de estados en el periodo k
�⃗⃗� (𝟏)= �⃗⃗�
(𝟎)𝐌
�⃗⃗� (𝟐)= �⃗⃗�
(𝟏)𝐌 = (�⃗⃗�
(𝟎)𝐌)𝐌) = �⃗⃗�
(𝟎)𝐌𝟐
…
�⃗⃗� (𝐤)= �⃗⃗�
(𝟎)𝐌𝒌
UABC FCAyS (795) 16
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.2.2. Ejemplo12 :
[1] [2]Una tienda de cámaras tiene en almacén un modelo especial de cámara que se puede ordenar
cada semana. Sean D1, D2, ... las demandas de esta cámara durante la primera, segunda, ... , semana,
respectivamente. Se supone que las Di son variables aleatorias independientes e idénticamente distribuidas
que tienen una distribución de probabilidad conocida. Sea X0 el número de cámaras que se tiene en el
momento de iniciar el proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2 el
número de cámaras al final de la semana dos, etc. Suponga que X0 = 3. El sábado en la noche la tienda
hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que le
entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente política para ordenar:
Si no hay cámaras en inventario al final de la semana, se surten 3.
De otra manera, no se surten cámaras.
Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces, {Xt} para t=0, 1, ... es un proceso estocástico de la forma que se acaba de describir. Los estados posibles del proceso son los
enteros 0, 1, 2, 3 que representan el número posible de cámaras en inventario al final de la semana.
La demanda se conduce de manera exponencial (todos los eventos son independientes entre si), que para
explicar el número de clientes que vienen por semana es la distribución de Poisson que tiene dos
parámetros: la media (λ que es el promedio de clientes semanales en un largo lapso de tiempo), y el
número de clientes semanales, Así la probabilidad de que lleguen x clientes semanales, cuando en
promedio llegan λ es:
𝐏(𝐱; 𝛌) =𝛌𝐱𝐞−𝛌
𝐱!
Se tiene que la demanda cuando se tiene una esperanza (media) de 3, λ=3
A B C D
1 _λ = 3
2
X={
0 0.04978707 =POISSON(B2,$B$1,FALSO)
3 1 0.14936121 =POISSON(B2,$B$1,FALSO)
4 2 0.22404181 =POISSON(B2,$B$1,FALSO)
5
3 o mas 0.57680992 =1-SUMA(C2:C4)
6
2 o mas 0.80085173 =1-SUMA(C2:C3)
7 1 o mas 0.95021293 =1- C2
Para que la semana termine con i cámaras, dado que la semana anterior terminó con j cámaras:
0 1 2 3
0 P(DEMANDA ≥3) P(DEMANDA =2) P(DEMANDA =1) P(DEMANDA =0)
1 P(DEMANDA ≥1) P(DEMANDA =0) 0 0
2 P(DEMANDA ≥2) P(DEMANDA =1 P(DEMANDA =0) 0
3 P(DEMANDA ≥3) P(DEMANDA =2) P(DEMANDA =1) P(DEMANDA =0) La matriz de transición es:
M =
0.57680992 0.22404181 0.14936121 0.04978707
0.95021293 0.04978707 0 0
0.80085173 0.14936121 0.04978707 0
0.57680992 0.22404181 0.14936121 0.04978707
12
En la resolución numérica de este ejemplo usaremos el ®Excel de ®MicroSoft para su programación
UABC FCAyS (795) 17
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
M(2) = M2=
0.69393096 0.17384708 0.10102554 0.03119643
0.59540056 0.21536618 0.14192495 0.04730832
0.64373623 0.19429678 0.12209493 0.03987206
0.69393096 0.17384708 0.10102554 0.03119643 Así, dado que tiene una cámara al final de una semana, la probabilidad de que no haya cámaras en
inventario dos semanas después es 0.5954 ; es decir, 𝐏𝟏,𝟎(𝟐)= 𝟎. 𝟓𝟗𝟓𝟒 . De igual manera, dado que se
tienen dos cámaras al final de una semana, la probabilidad de que haya tres cámaras en el almacén dos
semanas después es 𝐏𝟐,𝟑(𝟐)= 𝟎. 𝟎𝟑𝟗𝟖𝟕
La matriz de transición de cuatro pasos también se puede obtener de la siguiente manera:
M(4) = M4 = M(2) * M(2)
2.12.4.9.3. Estado estacionario
El cálculo de la probabilidad de que sistema se encuentre en algún estado, no depende del estado inicial,
y puede considerarse que es la tendencia del estado al transcurrir mucho tiempo.
En el ejemplo del almacén de cámaras, se observa que ya en la potencia 10 todos los renglones se
parecen, esto implica que sin importar como termine en la semana anterior, dentro de diez semanas solo se
puede decir cuál es la probabilidad que tiene cada uno de los estados posibles.
M10 =
0.67026158 0.18374318 0.11087649 0.03511875
0.67026012 0.18374379 0.1108771 0.03511899
0.67026085 0.18374349 0.11087679 0.03511887
0.67026158 0.18374318 0.11087649 0.03511875 Siempre y cuando la matriz no sea periódica siempre se llega a la situación de que al multiplicarla una
vez más por si misma todos los renglones iguales, ya no cambian.
Sea M la matriz de transición de una cadena de m estados. Existe un vector
m ,,, 21 Llamado distribución de estado estable o distribución de equilibrio tal que
m
m
m
k
k
MLim
21
21
21
)(
En particular
MMMaa
1
mmmm
m
m
m
m
m
m
m
m
ppp
p
p
pp
pp
,2,1,
,2
,1
2,21,2
2,11,1
21
21
21
21
21
21
ppppppmmmm 1,1,221,111,1,221,111
)1(0
ppppppmmmm 2,2,222,112,2,222,112
)1(0 … …
…
UABC FCAyS (795) 18
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
)1(,,22,11,,22,11 0 ppppppmmmmmmmmmmm
Y, por tratarse de una distribución de probabilidad:
m
211
Hay m+1 ecuaciones y m incógnitas, desechamos una de ellas, ya que las primeras m ecuaciones no
son linealmente independientes y la sustituimos por la propiedad de distribución de probabilidad (los
renglones suman 1, última ecuación), y expresando el sistema de ecuaciones matricialmente tenemos
100
1
1
1
1
1
,2,1,
)1(,1
)1(,1
2,21,2
2,11,1
21
mmmm
m
m
m
ppp
p
p
pp
pp
1
,2,1,
)1(,1
)1(,1
2,21,2
2,11,1
21
1
1
1
1
1
100
mmmm
m
m
m
ppp
p
p
pp
pp
La distribución de probabilidad resultante (el estado estable) es el último renglón de la matriz invertida
En el caso de una Cadena de Markov periódica, no existe esta tendencia, pues fluctúa de estado en
estado, sin embargo al aplicarle el procedimiento anterior se encuentra en la solución la probabilidad de
que el sistema se encuentre en dicho estado. Para el segundo ejemplo periódico se tiene 0.3333333, 0.0333333, 0.3, 0.2166667, 0.1166667 como las probabilidades de que el sistema se encuentre en el
estado 1, 2, 4 y 5, respectivamente, como se hace notar el estado 1 se repite cada tres etapas, estando ahí
1 de cada tres: 1/3 del tiempo.
La programación ®SciLab es la siguiente:
function Mss=MarkovSS(M); Mss=[M-eye(),ones(length(M)^.5,1)]; Mss=inv(Mss(:,2:$)); Mss=Mss($,:);
endfunction
2.12.4.9.3.1. Ejemplos
P =
0.57680992 0.22404181 0.14936121 0.04978707
0.95021293 0.04978707 0 0
0.80085173 0.14936121 0.04978707 0
0.57680992 0.22404181 0.14936121 0.04978707
P-I =
-0.42319008 0.22404181 0.14936121 0.04978707
0.95021293 -0.95021293 0 0
0.80085173 0.14936121 -0.95021293 0
0.57680992 0.22404181 0.14936121 -0.95021293 Sustituyendo la última columna por unos
-0.42319008 0.22404181 0.14936121 1 0.95021293 -0.95021293 0 1
UABC FCAyS (795) 19
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
0.80085173 0.14936121 -0.95021293 1 0.57680992 0.22404181 0.14936121 1
Invirtiendo la matriz
-1 -8.763E-17 -8.763E-17 1
-0.29461996 -0.85902501 0.1166861 1.03695887
-0.18374333 0.05834304 -0.91736805 1.04276834
0.67026124 0.18374333 0.11087664 0.0351188
Que después de premultiplicar por [0, 0, 0, 1] obtenemos: 0.67026124 0.18374333 0.11087664 0.0351188
2.12.4.9.3.1.1. Ejercicio.
Si
.13533532706706..5939942
01353353..8646647
.1353353.2706706.5939942
M entonces
.1030706.2384058.6585236
.1030706.2384058.6585236
1.1192029.8807971 -.2384058-
101 -
100
1.2706706.5939942
1.8646647 -.8646647
12706706..4060058 -
100
1
321
2.12.4.9.3.1.2. Ejercicio.
3.6.31
32
12.
119.10
__
21
1
21
3
1
3
23
10
3
10
101.2.
11
3.
10
1.2.
11
2.1.
10
8.2.
1.9.
entoncesM
UABC FCAyS (795) 20
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.3.1.3. Ejercicio.
M
3.4.3.
3.5.2.
3.6.1.
1
321
14.3.
115.2.
16.11.
100
3.5.2.
3....49090....20909.
1...0909.1...0909.
1...1818....8181.
100
2.12.4.9.3.1.4. Ejercicio.
Una cola M/M/1/n como se verá en la sección 2.12.5, se puede simular de la siguiente manera:
Cada estado corresponde a la cantidad de clientes en el sistema, siendo los estados diferentes {0,1,…}, en
el que los estados de valores muy grandes se descartan por tener una probabilidad ínfima. La matriz de
estados será:
Según la distribución de probabilidad de Poisson, con esperanza λ las probabilidades de que ocurra un
número de eventos X es de:
!);(
xxP
x
e
La probabilidad de que no arribe nadie es de:
eeP
!0
)0;(
0
La probabilidad de que arribe un cliente (es el complemento de que no llegue ningún cliente) 1-eλ. La
probabilidad de que uno o más clientes sean atendidos es de 1-eµ.
En el estado inicial cuando hay cero clientes en la línea, las flechas que salen del globo 0 deben sumar
1, por lo que la flecha de transición 0,0 tiene una probabilidad de 1-(1-eλ)=eλ.
La capacidad del sistema es para n clientes en la cola, por eso la cadena termina ahí…
ee
eeee
eee
eeeeeee
ee
11
1
111
1
0
1
0
1
1
000
000
000
0
0
0
0
0
0
0
0
0
10
1
0
0 1
n
e-λ
1-e-λ
1-e-µ
e-λ+ e-µ-1 1-e-λ
1-e-µ
e-µ
1-e-µ
n-1
e-λ+ e-µ-1 1-e-λ
UABC FCAyS (795) 21
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Para programación en SCILAB:
la=.3; //λ mu=.375;//μ N=256; mt=zeros(N,N); mt(1,1)=exp(-la); mt(1,2)=1-exp(-la); mt(N,N-1)=1-exp(-mu); mt(N,N)=exp(-mu); for k=2:N-1; mt(k,k)=exp(-la)+exp(-mu)-1; mt(k,k-1)=1-exp(-mu); mt(k,k+1)=1-exp(-la); end; M=(mt-eye()); M=[M(:,1:N-1),ones(N,1)]; M=inv(M); M=M(N,:);plot(M) em=M*(0:N-1)'// Cálculo de la esperanza 7.1735632 vm= (M*((-em:N-1-em)').^2)^.5// Cálculo de la Desviación estándar 8.4180513
Conforme a la sección 2.12.4.7 Principales Relaciones,
1825.2
9
75.*75.3
9
)375.3(*75.3
3
)(
22
Lq
2.12.4.9.3.1.5. Ejercicio.
Suponga que toda la industria de refrescos produce dos sodas. Cuando una persona ha comprado la
sabor 1, hay una probabilidad de 90 % de que su siguiente compra se de sabor 1. Si una persona compró
sabor 2, hay un 80 % de probabilidades que su próxima compra sea de sabor 2.
𝑃 = [. 9 . 1. 2 . 8
] [𝜋1𝜋2] = [
. 9 − 1 . 21 1
]−1
∙ [01] = [
−.1 . 21 1
]−1
∙ [01] =
1
−.3[1 −.2−1 −.1
] ∙ [01] = [
23⁄
13⁄]
Por lo tanto, después de largo tiempo, hay probabilidad 2/3 de que una persona dada compre soda 1 y 1/3
de probabilidad de que una persona compre soda 2.
UABC FCAyS (795) 22
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.3.1.6. Ejercicios.
⌈. 1 . 9. 9 . 1
⌉ ⇛≫ [−5
9⁄59⁄
. 5 . 5] ⌈
. 5 . 5
. 9 . 1⌉ ⇛≫ [
−57⁄
57⁄
914⁄
514⁄] ⌈
. 4 . 6
. 9 . 1⌉ ⇛≫ [
−23⁄
23⁄
. 6 . 4]
UABC FCAyS (795) 23
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.4. Tiempo de primer paso
Es la esperanza (o promedio a largo plazo) del número de transiciones que tienen que transcurrir para
pasar del estado i al estado j, por primera vez.
2.12.4.9.5. Recurrencia
Es la esperanza del número de transiciones que tienen que transcurrir para regresar a un estado dado. Es
el tiempo de primer paso de ir del estado i al estado i. Si todos los estados del sistema tienen tiempos
de recurrencia finitos, se dice que es recurrente. Se puede demostrar que es el inverso de πn.
El estado i es Recurrente si ∑ 𝐟𝐢,𝐢(𝐧)= 𝟏∞
𝐧=𝟏 Siempre hay posibilidad de regresar al estado i
es Absorbente si ∑ 𝒑𝐢,𝐢 = 𝟏∞𝐧=𝟏 Una vez que el proceso se encuentra en el estado i no
abandona
es Transitorio si ∑ 𝐟𝐢,𝐢(𝐧)< 𝟏∞
𝐧=𝟏 Una vez que el proceso se encuentra en el estado i existe
una probabilidad >0 de no regresar
2.12.4.9.5.1. Tiempo de primer paso
En una secuencia dada, como, por ejemplo:
s0=1, s1=3, s2=0, s3=2, s4=1, s5=3, s6=2, … ,
el tiempo de primer paso para ir al estado 3 al
estado 1 es de 1 semana, el tiempo de primer
paso para ir del estado 3 al estado 2 es de 2 semanas y el tiempo de recurrencia del estado 3
es de 4 semanas (el tiempo de primera pasada
del estado 3 al estado 3).
Los tiempos de primer paso son variables
aleatorias, que representan el promedio de todos
los tiempos de paso del estado i al estado j. Este
promedio que es la suma de todos los tiempos
posibles multiplicados por su probabilidad se le
llama Esperanza matemática.
Sea fi,jn la probabilidad de que el tiempo de
primera pasada del estado i al estado j sea n.
Si n > 1, entonces el tiempo de primera pasada
es n si la primera transición es del estado i a otro
estado k y el tiempo de pasada del estado
intermedio k a estado j es n-1, estas
probabilidades obedecen a las siguientes
relaciones recursivas:
𝒇𝒊,𝒋(𝟏)= 𝒑𝒊,𝒋
𝟏 = 𝒑𝒊,𝒋
𝒇𝒊,𝒋(𝟐)=∑𝒑𝒊,𝒌
(𝟏)𝒇𝒌,𝒋(𝟏)
𝒌≠𝒋
𝒇𝒊,𝒋(𝟑)=∑𝒑𝒊,𝒌
(𝟏)𝒇𝒌,𝒋(𝟐)
𝒌≠𝒋
⋮
𝒇𝒊,𝒋(𝒏)=∑𝒑𝒊,𝒌
(𝟏)𝒇𝒌,𝒋(𝒏−𝟏)
𝒌≠𝒋
Estas probabilidades satisfacen las siguientes
relaciones recursivas:
𝐟𝐢,𝐣(𝟏)= 𝐩𝐢,𝐣
𝟏 = 𝐩𝐢,𝐣
𝒇𝒊,𝒋(𝟐)= 𝒑𝒊,𝒋
𝟐 − 𝒇𝒊,𝒋(𝟏)𝒑𝒊,𝒋
𝒇𝒊,𝒋(𝟑)= 𝒑𝒊,𝒋
𝟑 − 𝒇𝒊,𝒋(𝟏)𝒑𝒊,𝒋(𝟐)− 𝒇𝒊,𝒋
(𝟐)𝒑𝒊,𝒋
⋮ 𝒇𝒊,𝒋(𝒏)
= 𝒑𝒊,𝒋𝒏 − 𝒇𝒊,𝒋
(𝟏)𝒑𝒊,𝒋(𝒏−𝟏)
− 𝒇𝒊,𝒋(𝟐)𝒑𝒊,𝒋
(𝒏−𝟐)⋯− 𝒇𝒊,𝒋
(𝒏−𝟏)𝒑𝒊,𝒋
𝒇𝒊,𝒋(𝒏)= 𝒑𝒊,𝒋
(𝒏)−∑𝒇𝒊,𝒋
(𝒌)𝒑𝒊,𝒋(𝒏−𝒌)
𝒏−𝟏
𝒌=𝟏
Lo que permite el cálculo recursivo de la
probabilidad del tiempo de primer paso del estado
i al estado j en n pasos, usando como datos las
probabilidades de transición de un paso. En el
ejemplo, la distribución de probabilidad de los
tiempos de primer paso del estado 3 al estado 0 se
obtiene como sigue:
En el ejemplo del almacén de fotografía:
Con λ=1:
𝑴 = [
. 𝟎𝟖 . 𝟏𝟖𝟒. 𝟔𝟑𝟐 . 𝟑𝟔𝟖
. 𝟑𝟔𝟖 . 𝟑𝟔𝟖𝟎 𝟎
. 𝟐𝟔𝟒 . 𝟑𝟔𝟖. 𝟎𝟖 . 𝟏𝟖𝟒
. 𝟑𝟔𝟖 𝟎
. 𝟑𝟔𝟖 . 𝟑𝟔𝟖
]
𝒇𝒊,𝒋(𝟏)= 𝒑𝒊,𝒋
(𝟏)
UABC FCAyS (795) 24
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
𝒇𝟏,𝟎(𝟏)=. 𝟔𝟑𝟐 𝒇𝟐,𝟎
(𝟏)=. 𝟐𝟔𝟒 𝒇𝟑,𝟎
(𝟏)=. 𝟎𝟖
𝒇𝒊,𝒋(𝟐)=∑𝒑𝒊,𝒌𝒇𝒌,𝒋
(𝟏)
𝒌≠𝒋
𝒇𝟑,𝟎(𝟐)=∑𝒑𝟑,𝒌𝒇𝒌,𝟎
(𝟏)
𝒌≠𝟎
𝒇𝟑,𝟎(𝟐)= 𝒑𝟑,𝟏𝒇𝟏,𝟎
(𝟏)+ 𝒑𝟑,𝟐𝒇𝟐,𝟎
(𝟏)+ 𝒑𝟑,𝟑𝒇𝟑,𝟎
(𝟏)
𝒇𝟑,𝟎(𝟐)=. 𝟏𝟖𝟒 ∗. 𝟔𝟑𝟐+.𝟑𝟔𝟖 ∗. 𝟐𝟔𝟒+.𝟑𝟔𝟖 ∗. 𝟎𝟖 =. 𝟐𝟒𝟑
Que es la probabilidad de pasar del estado 3 al
estado 0 en una pasada y en dos pasadas,
respectivamente.
Para cada transición i,j, las diferentes, tienen las
propiedades:
𝟎 ≤ 𝒇𝒊,𝒋(𝒏)
≤ 𝟏
∑𝒇𝒊,𝒋(𝒏)
≤ 𝟏
∞
𝒏=𝟏
Si esta suma es estrictamente menor que uno
significa que existe una probabilidad de que el
sistema puede nunca alcanzar el estado j desde el
estado i. Si la suma si es 1, entonces se dice que esa
transición es recurrente, y las 𝐟𝐢,𝐣(𝐧)
para toda n,
constituyen una distribución de probabilidad
para la variable aleatoria: tiempo de primera
pasada (la esperanza del número de transiciones
en que el sistema termina en el estado j empezando en el estado i), que se define como
sigue:
𝛍𝐢,𝐣 =
{
∞ 𝐬𝐢 ∑ 𝐟𝐢,𝐣(𝐧)
∞
𝐧=𝟏
<
. . . . . . . . .
𝟏
∑𝐧 𝐟𝐢,𝐣(𝐧)
∞
𝐧=𝟏
𝐬𝐢 ∑ 𝐟𝐢,𝐣(𝐧)
∞
𝐧=𝟏
= 𝟏}
𝒔𝒊 ∑ 𝒇𝒊,𝒋(𝒏)∞
𝒏=𝟏 = 𝟏, 𝝁𝒊,𝒋 satisface
unívocamente la ecuación:
𝛍𝐢,𝐣 = 𝟏 +∑𝐩𝐢,𝐤𝛍𝐤,𝐣𝐤≠𝐣
Cuya primera transición puede ser al estado j (1), o a cualquier otro estado k, si la primera
transición es a un estado diferente a j (k≠j) lo que
ocurre con probabilidad pi,k, sumando todas las
posibilidades.
𝝁𝟑,𝟎 = 𝟏 + 𝒑𝟑,𝟏𝝁𝟏,𝟎 + 𝒑𝟑,𝟐𝝁𝟐,𝟎 + 𝒑𝟑,𝟑𝝁𝟑,𝟎
𝝁𝟐,𝟎 = 𝟏 + 𝒑𝟐,𝟏𝝁𝟏,𝟎 + 𝒑𝟐,𝟐𝝁𝟐,𝟎 + 𝒑𝟐,𝟑𝝁𝟑,𝟎
𝝁𝟏,𝟎 = 𝟏 + 𝒑𝟏,𝟏𝝁𝟏,𝟎 + 𝒑𝟏,𝟐𝝁𝟐,𝟎 + 𝒑𝟏,𝟑𝝁𝟑,𝟎
𝟏 = 𝒑𝟑,𝟏𝝁𝟏,𝟎 + 𝒑𝟑,𝟐𝝁𝟐,𝟎 + 𝒑𝟑,𝟑𝝁𝟑,𝟎 − 𝝁𝟑,𝟎
−𝟏 = 𝒑𝟑,𝟏𝝁𝟏,𝟎 + 𝒑𝟑,𝟐𝝁𝟐,𝟎 + (𝒑𝟑,𝟑 − 𝟏)𝝁𝟑,𝟎
(𝒑𝟏,𝟏−𝟏)𝝁𝟏,𝟎 + 𝒑𝟏,𝟐𝝁𝟐,𝟎+𝒑𝟏,𝟑𝝁𝟑,𝟎 = −𝟏
𝒑𝟐,𝟏𝝁𝟏,𝟎 + (𝒑𝟐,𝟐 − 𝟏)𝝁𝟐,𝟎+𝒑𝟐,𝟑𝝁𝟑,𝟎 = −𝟏
𝒑𝟑,𝟏𝝁𝟏,𝟎 + 𝒑𝟑,𝟐𝝁𝟐,𝟎 + (𝒑𝟑,𝟑 − 𝟏)𝝁𝟑,𝟎 = −𝟏
[
𝒑𝟏,𝟏 − 𝟏 𝒑𝟏,𝟐 𝒑𝟏,𝟑𝒑𝟐,𝟏 𝒑𝟐,𝟐 − 𝟏 𝒑𝟐,𝟑𝒑𝟑,𝟏 𝒑𝟑,𝟐 𝒑𝟑,𝟑 − 𝟏
] ∗ [
𝝁𝟏,𝟎𝝁𝟐,𝟎𝝁𝟑,𝟎
] = [−𝟏−𝟏−𝟏]
([
𝒑𝟏,𝟏 𝒑𝟏,𝟐 𝒑𝟏,𝟑𝒑𝟐,𝟏 𝒑𝟐,𝟐 𝒑𝟐,𝟑𝒑𝟑,𝟏 𝒑𝟑,𝟐 𝒑𝟑,𝟑
] − [𝟏 𝟎 𝟎𝟎 𝟏 𝟎𝟎 𝟎 𝟏
]) ∗ [
𝝁𝟏,𝟎𝝁𝟐,𝟎𝝁𝟑,𝟎
]
= [−𝟏−𝟏−𝟏]
Si agregamos el primer renglón por inducción,
y reordenamos para evitar los signos:
(
[
𝟏 𝟎𝟎 𝟏
𝟎𝟎
𝟎𝟎
𝟎 𝟎 𝟏 𝟎𝟎 𝟎 𝟎 𝟏
] −
[ 𝟎 𝒑𝟎,𝟏𝟎 𝒑𝟏,𝟏
𝒑𝟎,𝟐𝒑𝟏,𝟐
𝒑𝟎,𝟑𝒑𝟏,𝟑
𝟎 𝒑𝟐,𝟏 𝒑𝟐,𝟐 𝒑𝟐,𝟑𝟎 𝒑𝟑,𝟏 𝒑𝟑,𝟐 𝒑𝟑,𝟑]
)
∗ [
𝝁𝟎,𝟎𝝁𝟏,𝟎𝝁𝟐,𝟎𝝁𝟑,𝟎
] = [
𝟏𝟏𝟏𝟏
]
UABC FCAyS (795) 25
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Que para despejar, la matriz que premultiplica,
pasa premultiplicando su inversa:
[
𝛍𝟎,𝟎𝛍𝟏,𝟎𝛍𝟐,𝟎𝛍𝟑,𝟎
] =
(
[
𝟏 𝟎𝟎 𝟏
𝟎𝟎
𝟎𝟎
𝟎 𝟎 𝟏 𝟎𝟎 𝟎 𝟎 𝟏
] −
[ 𝟎 𝐩𝟎,𝟏𝟎 𝐩𝟏,𝟏
𝐩𝟎,𝟐𝐩𝟏,𝟐
𝐩𝟎,𝟑𝐩𝟏,𝟑
𝟎 𝐩𝟐,𝟏 𝐩𝟐,𝟐 𝐩𝟐,𝟑𝟎 𝐩𝟑,𝟏 𝐩𝟑,𝟐 𝐩𝟑,𝟑]
)
−𝟏
∗ [
𝟏𝟏𝟏𝟏
]
Y para los demás
[
𝛍𝟎,𝟏𝛍𝟏,𝟏𝛍𝟐,𝟏𝛍𝟑,𝟏
] =
(
[
𝟏 𝟎𝟎 𝟏
𝟎𝟎
𝟎𝟎
𝟎 𝟎 𝟏 𝟎𝟎 𝟎 𝟎 𝟏
] −
[ 𝐩𝟎,𝟎 𝟎
𝐩𝟎,𝟎 𝟎
𝐩𝟎,𝟐𝐩𝟏,𝟐
𝐩𝟎,𝟑𝐩𝟏,𝟑
𝐩𝟎,𝟎 𝟎 𝐩𝟐,𝟐 𝐩𝟐,𝟑𝐩𝟎,𝟎 𝟎 𝐩𝟑,𝟐 𝐩𝟑,𝟑]
)
−𝟏
∗ [
𝟏𝟏𝟏𝟏
]
Etcétera Para el ejemplo que estamos usando, todos los
estados son recurrentes:
𝝁𝟏,𝟎 = 𝟏 + 𝒑𝟏,𝟏𝝁𝟏,𝟎 + 𝒑𝟏,𝟐𝝁𝟐,𝟎 + 𝒑𝟏,𝟑𝝁𝟑,𝟎
𝝁𝟐,𝟎 = 𝟏 + 𝒑𝟐,𝟏𝝁𝟏,𝟎 + 𝒑𝟐,𝟐𝝁𝟐,𝟎 + 𝒑𝟐,𝟑𝝁𝟑,𝟎
𝝁𝟑,𝟎 = 𝟏 + 𝒑𝟑,𝟏𝝁𝟏,𝟎 + 𝒑𝟑,𝟐𝝁𝟐,𝟎 + 𝒑𝟑,𝟑𝝁𝟑,𝟎
𝝁𝟏,𝟎 = 𝟏+. 𝟑𝟔𝟖 𝝁𝟏,𝟎 + 𝟎 𝝁𝟐,𝟎 + 𝟎 𝝁𝟑,𝟎
𝝁𝟐,𝟎 = 𝟏+. 𝟑𝟔𝟖 𝝁𝟏,𝟎+.𝟑𝟔𝟖 𝝁𝟐,𝟎 + 𝟎 𝝁𝟑,𝟎
𝝁𝟑,𝟎 = 𝟏+. 𝟏𝟖𝟒 𝝁𝟏,𝟎+.𝟑𝟔𝟖 𝝁𝟐,𝟎+. 𝟑𝟔𝟖 𝝁𝟑,𝟎
𝝁𝟏,𝟎 = 𝟏+.𝟑𝟔𝟖 𝝁𝟏,𝟎
𝝁𝟏,𝟎 =𝟏
𝟏−. 𝟑𝟔𝟖= 𝟏. 𝟓𝟖𝟐𝟐𝟕𝟖𝟓
𝝁𝟐,𝟎 = 𝟏+. 𝟑𝟔𝟖 ∗ 𝟏. 𝟓𝟖𝟐𝟐𝟕𝟖𝟓+.𝟑𝟔𝟖 𝝁𝟐,𝟎
𝝁𝟐,𝟎 = 𝟏. 𝟓𝟖𝟐𝟐𝟕𝟖𝟓+.𝟑𝟔𝟖 𝝁𝟐,𝟎
𝝁𝟐,𝟎 =𝟏. 𝟓𝟖𝟐𝟐𝟕𝟖𝟓
𝟏−. 𝟑𝟔𝟖= 𝟐. 𝟓𝟎𝟑𝟔𝟎𝟓𝟐
𝝁𝟑,𝟎 = 𝟏+. 𝟏𝟖𝟒 ∗ 𝟏. 𝟓𝟖𝟐𝟐𝟕𝟖𝟓+. 𝟑𝟔𝟖∗ 𝟐. 𝟓𝟎𝟑𝟔𝟎𝟓𝟐+.𝟑𝟔𝟖 𝝁𝟑,𝟎
𝝁𝟑,𝟎 = 𝟐. 𝟐𝟏𝟐𝟒𝟔𝟔+.𝟑𝟔𝟖 𝝁𝟑,𝟎
𝝁𝟑,𝟎 =𝟐. 𝟐𝟏𝟐𝟒𝟔𝟔
𝟏−. 𝟑𝟔𝟖= 𝟑. 𝟓𝟎𝟎𝟕𝟑𝟕𝟑
La esperanza para saber cuántos periodos se
han de esperar hasta que el sistema termine con 0
cámaras:
F0= π0μ0,0+ π1μ1,0+ π2μ2,0+ π3μ3,0.
F0= .2856541*3.5007373 + .2848349*1.5822785 + .2631808* .5036052 + .1663302*3.5007373 = 2.6918673
Cada 2.7 semanas se termina con 0 artículos.
Programación Scilab //mi ejemplo con lambda =3
p=[0.57680992 0.22404181 0.14936121 0.04978707; 0.95021293 0.04978707 0 0 ; 0.80085173 0.14936121 0.04978707 0 ; 0.5768 0.2240 0.1493 0.0497];
//Ejemplo del Hillier, mi ejemplo con lambda=1
P=[.08 .184 .368 .368; .632 .368 0 0; .264 .368 .368 0; .08 .184 .368 .368];
//En el cálculo de fij, probabilidad de una pasada de ir del estado i al estado j
for k=1:4; P0=P;P0(:,k)=[0,0,0,0]’;//lambda=1 P0=inv(eye(4,4)-P0)*ones(4,1); U(:,k)=P0;//Columna k de U P0=p;P0(:,k)=[0,0,0,0]’;//lambda=3 P0=inv(eye(4,4)-P0)*ones(4,1); u(:,k)=P0;//Columna k de u end; pp=diag(u)’;PP=diag(U)’; pi=diag(ones(4,4)./u)’;PI=diag(ones(4,4)./U)’;
Resultados Scilab pp = 1.4919556 4.675136 8.2737728 28.47478
1.0523957 5.4423746 9.3261685 29.527175 1.2178187 4.9926607 9.0190331 29.692599 1.4919556 4.675136 8.2737728 28.47478
PP = 3.5007373 3.9727943 3.5085305 6.0121357 1.5822785 3.510806 5.090809 7.5944142 2.5036052 3.2418002 3.7996698 8.5157409 3.5007373 3.9727943 3.5085305 6.0121357
u =1.4919556 5.4423746 9.0190331 28.47478 U =3.5007373 3.510806 3.7996698 6.0121357 pi =0.6702612 0.1837433 0.1108766 0.0351188 PI =0.2856541 0.2848349 0.2631808 0.1663302
2.12.4.9.6. Cadenas Periódicas
Se llama así a la cadena que al cabo de algunos
pasos regresa al mismo estado. El número de
pasos que tarda en repetirse se llama periodo.
A continuación se muestra la matriz de
transición de una Cadena de Markov de periodo
igual a dos.
UABC FCAyS (795) 26
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
𝑀 = [0 . 1 . 91 0 01 0 0
] 𝑀2 = [1 0 00 . 1 . 90 . 1 . 9
]
𝑀3 = [0 . 1 . 91 0 01 0 0
] . . .
Aquí se muestra una cadena de periodo de tres
𝐵 =
[ 0 . 1 . 9 0 00 0 0 . 2 . 8011
000
0 . 7 . 30 0 00 0 0 ]
𝐵2 =
[ 0 0 0 . 65 . 351 0 0 0 0100
0. 1. 1
0 0 0. 9 0 0. 9 0 0 ]
𝐵3 =
[ 1 0 0 0 00 . 1 . 9 0 0000
. 100
. 9 0 00 . 65 . 350 . 65 . 35]
𝐵4 =
[ 0 . 1 . 9 0 00 0 0 . 2 . 8011
000
0 . 7 . 30 0 00 0 0 ]
2.12.4.9.7. Estados Absorbentes
Un estado de una cadena de Markov se le
denomina absorbente si es imposible
abandonarlo. Una cadena de Markov se dice
absorbente si tiene al menos un estado absorbente
accesible desde cualquier estado. Un estado que
no es absorbente se dice que es transitorio.
2.12.4.9.7.1. Ejemplo
El camino de Briagoberto Un borracho solo camina a lo largo de la calle
Ruiz. Él vive en la esquina Ruiz y Boulevard
Costero y la cantina está en la calle 4.
En cualquier esquina su desorientación es tal
que puede caminar hacia el Oeste o hacia el Este
con la misma probabilidad. Si llega a su casa su
vieja lo retiene y lo acuesta a dormir. Si llega al
bar, se embriaga de tal modo que se queda tirado
ahí.
La matriz de transición es la siguiente, con
estados absorbentes en 0 y en 4:
P =
0 1 2 3 4 0 1 0 0 0 0 1 ½ 0 ½ 0 0 2 0 ½ 0 ½ 0
3 0 0 ½ 0 ½ 4 0 0 0 0 1
Los estados 1, 2 y 3 son estados transitorios y los
estados 0 y 4 son estados absorbentes.
¿Cual es la probabilidad de que eventualmente
termine en un estado absorbente?
¿En promedio, cuanto tiempo vagará antes de
permanecer en alguno de los estados absorbentes?
¿Cuál es la esperanza de encontrarlo en cada
esquina?
La respuesta a estas preguntas depende, en
general, del estado en que el proceso empieza, así
como de las probabilidades de transición.
Este es un ejemplo de una matriz de transición
absorbente,
m=[ .98 .01 0 .01 0 0 0 0 0 .25 .25 .25 0 .25 0 0 0 0 0 1/3 1/3 0 0 1/3 0 0 0 .25 0 0 .25 .25 0 .25 0 0 0 .2 0 .2 .2 .2 0 .2 0 0 0 .25 0 .25 .25 0 0 .25 0 0 0 1/3 0 0 1/3 1/3 0 0 0 0 0 .25 0 .25 .25 .25 0 0 0 0 0 .01 0 .01 .98 ]
UABC FCAyS (795) 27
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.7.2. Forma Canónica
Considérese una cadena de Markov absorbente.
Renumeramos sus estados para que los estados
transiente estén al principio. Si hay r estados
absorbentes y t estados transiente, la matriz de
transición tendrá la siguiente forma canónica:
CONSIDERAR UNA SUBMATRIZ
ABSORBENTE.
En la que I es una matriz identidad n*n, 0 es
una matriz r*t de ceros y Q es una matriz t*t. Los primeros t estados son transiente y los
últimos r estados son absorbentes.
In Section 11.1, we saw that the entry p(n)
ij of
the matrix Pn is the probability of being in the
state sj after n steps, when the chain is started in
state si. A standard matrix algebra argument
shows that Pn is of the form
where the asterisk ∗ stands for the t-by-r matrix
in the upper right-hand corner of Pn. (This
submatrix can be written in terms of Q and R, but
the expression is complicated and is not needed at
this time.) The form of Pn shows that the entries
of Qn give the probabilities for being in each of
the transient states after n steps for each possible
transient starting state. For our first theorem, we
prove that the probability of being in the transient
states after n steps approaches zero. Thus, every
entry of Qn must approach zero as n approaches
infinity (i.e, Qn → 0).
2.12.4.9.7.3. The Fundamental
Matrix Theorem 11.4 For an absorbing Markov chain
the matrix I − Q has an inverse N and N = I + Q +
Q2 + · · · . The ij-entry nij of the matrix N is the
expected number of times the chain is in state sj ,
given that it starts in state si. The initial state is
counted if i = j.
Definition 11.3 For an absorbing Markov chain
P, the matrix N = (I − Q)−1 is called the
fundamental matrix for P. The entry nij of N
gives the expected number of times that the
process is in the transient state sj if it is started in
the transient state si.
Example 11.14 (Example 11.13
continued) In the Drunkard’s Walk examp transition
matrix in canonical form is
P =
. 1 2 3 0 4
1 0 ½ 0 ½ 0
2 ½ 0 ½ 0 0
3 0 ½ 0 0 ½
0 0 0 0 1 0
4 0 0 0 0 1
From this we see that the matrix Q is
Q=
0 ½ 0
½ 0 ½
0 ½ 0 and
I − Q =
1 −1/2 0
−1/2 1 −1/2
0 −1/2 1 Computing (I − Q)−1, we find
N = (I − Q)−1 =
1 2 3
1 3/2 1 ½
2 1 2 1
3 ½ 1 3/2
From the middle row of N, we see that if we
start in state 2, then the expected number of times
in states 1, 2, and 3 before being absorbed are 1,
2, and 1. 2 .
UABC FCAyS (795) 28
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.9.7.4. Probabilidad de
Absorción Teorema: En una cadena de Markov la
probabilidad de que el proceso sea absorbido es
1. (siempre y cuando todos los estados sean
alcanzables y exista al menos una subcadena
absorbente.
Theorem 11.3 In an absorbing Markov chain,
the probability that the process will be absorbed
is 1 (i.e., Qn → 0 as n → ∞).
2.12.4.9.7.5. Time to Absorption
We now consider the question: Given that the
chain starts in state si, what is the expected
number of steps before the chain is absorbed?
The answer is given in the next theorem.
Theorem 11.5 Let ti be the expected number of
steps before the chain is absorbed, given that the
chain starts in state si, and let t be the column
vector whose ith entry is ti. Then
t = Nc ,
where c is a column vector all of whose
entries are 1.
2.12.4.9.7.6. Absorption
Probabilities Theorem 11.6 Let bij be the probability that an
absorbing chain will be absorbed in the absorbing
state sj if it starts in the transient state si. Let B be
the matrix with entries bij . Then B is an t-by-r
matrix, and
B = NR ,
where N is the fundamental matrix and R is
as in the canonical form.
Example 11.15 (Example 11.14
continued) In the Drunkard’s Walk example, we found that
N =
N=
3/2 1 ½
1 2 1
½ 1 3/2
Hence,
t=Nc
3/2 1 ½
*
1
=
3
1 2 1 1 1
½ 1 3/2 1 3
2.12.4.9.8. Costos
2.12.4.10. Paquete
computacional QSA,QSB,
2.12.4.11. Ejercicios de Aplicación
UABC FCAyS (795) 29
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
2.12.4.12. Bibliografía
[
1]
F. S. Hillier y G. J. Lieberman, Investigación de Operaciones, 7a ed., México DF,
DF: McGraw-Hill, 2002.
[
2]
D. R. Anderson, D. J. Sweeney y T. A. Williams, Introducción a los Modelos
Cuantitativos para Administración, 3a ed., DF, México: Grupo Editorial
Iberoamericano, 1993.
[
3]
J. Norris, «Markov Chains,» University of Cambridge, Mayo 2012. [En línea].
Available: http://www.statslab.cam.ac.uk/~james/Markov/. [Último acceso: 06
Mayo 2014].
2.12.5. Apéndice
2.12.5.1. Cadena de Ehrenfest
Modela el intercambio de moléculas de gas entre dos urnas.
Supongamos que tenemos dos urnas: U1 y U2. En ellas están distribuidas d bolas
numeradas; en cada paso, se elige un número al azar entre S={1, 2, ... , d}. A
continuación se observa en qué urna está la bola con el número elegido y se cambia de
urna.
2.12.5.1.1. Modelo Ehrenfest
Definimos la variable aleatoria Xn que denota el número de bolas en la urna U1 al
tiempo n, el espacio de estados es E={0, 1, 2, … ,d} y la matriz de transición definida por
𝐏𝐱,𝐲 =
{
𝐱𝐝⁄ 𝐬𝐢 (𝐱 > 𝟎, 𝐲 = 𝐱 − 𝟏)
(𝐝 − 𝐱)𝐝⁄ 𝐬𝐢(𝐱 < 𝐝, 𝐲 = 𝐱 + 𝟏)
𝟎 𝐨𝐭𝐫𝐚 𝐜𝐨𝐧𝐝𝐢𝐜𝐢ó𝐧 }
2.12.5.1.1.1. Ejemplo
Para 3 bolas: 3=d E={0,1,2,3)
y x
0 1 2 3
0
0/3 si 0>0, 2=0-1 (3-0)/3 si 0<3 0=0+1 0 otra Condición
0/3 si 0>0, 1=0-1 (3-0)/3 si 0<3 1=0+1 0 otra Condición
0/3 si 0>0, 2=0-1 (3-0)/3 si 0<3 2=0+1 0 otra Condición
0/3 si 0>0, 3=0-1 (3-0)/3 si 0<3 3=0+1 0 otra Condición
1
1/3 si 1>0, 0=1-1 (3-1)/3 si 1<3 0=1+1 0 otra Condición
1/3 si 1>0, 1=1-1 (3-1)/3 si 1<3 1=1+1 0 otra Condición
1/3 si 1>0, 2=1-1 (3-1)/3 si 1<3 2=1+1 0 otra Condición
1/3 si 1>0, 3=1-1 (3-1)/3 si 1<3 3=1+1 0 otra Condición
2
2/3 si 2>0, 0=2-1 (3-2)/3 si 2<3 0=2+1 0 otra Condición
2/3 si 2>0, 1=2-1 (3-2)/3 si 2<3 1=2+1 0 otra Condición
2/3 si 2>0, 2=2-1 (3-2)/3 si 2<3 2=2+1 0 otra Condición
2/3 si 2>0, 3=2-1 (3-2)/3 si 2<3 3=2+1 0 otra Condición
3
3/3 si 3>0, 0=3-1 (3-3)/3 si 3<3 0=3+1 0 otra Condición
3/3 si 3>0, 1=3-1 (3-3)/3 si 3<3 1=3+1 0 otra Condición
3/3 si 3>0, 2=3-1 (3-3)/3 si 3<3 2=3+1 0 otra Condición
3/3 si 3>0, 3=3-1 (3-3)/3 si 3<3 3=3+1 0 otra Condición
UABC FCAyS (795) 30
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
y x
0 1 2 3
0 0 1 0 0 1 1/3 0 2/3 0 2 0 2/3 0 1/3 3 0 0 1 0
2.12.5.2. The Bernoulli-Laplace Chain
The Bernoulli-Laplace chain, named for Jacob Bernoulli and Pierre Simon Laplace, is a simple
discrete model for the diffusion of two incompressible gases between two containers. Like
the Ehrenfest chain, it can also be formulated as a simple ball and urn model. Thus, suppose that
we have two urns, labeled 0 and 1. Urn 0 contains j balls and urn 1 contains k balls,
where j,k∈N+. Of the j+k balls,r are red and the remaining j+k−r are green. At each discrete
time, independently of the past, a ball is selected at random from each urn and then the two balls
are switched. The balls of different colors correspond to molecules of different types, and the
urns are the containers. The incompressible property is reflected in the fact that the number of
balls in each urn remains constant over time.
Let Xn denote the number of red balls in urn 1 at time n∈N. Note that
a. k−Xn is the number of green balls in urn 1 at time n.
b. r−Xn is the number of red balls in urn 0 at time n.
c. j−r+Xn is the number of green balls in urn 0 at time n.
X=(X0,X1,X2,…) is a Markov chain on the state space S={max{0,r−j},…,min{k,r}} with the
transition probability matrix P given by
P(x,x−1)=(j−r+x)xjk,P(x,x)=(r−x)x+(j−r+x)(k−x)jk,P(x,x+1)=(r−x)(k−x)jk;x∈S
Consider the special case j=k, so that each container has the same number of particles. The state
space is S={max{0,r−k},…,min{k,r}} and the transition probability matrix is
P(x,x−1)=(k−r+x)xk2,P(x,x)=(r−x)x+(k−r+x)(k−x)k2,P(x,x+1)=(r−x)(k−x)k2;x∈S
Consider the special case j=k=r, so that each container has the same number of particles, and
this is also the number of type 1 particles. The state space is S={0,1,…,k} and the transition
probability matrix is
P(x,x−1)=x2k2,P(x,x)=2x(k−x)k2,P(x,x+1)=(k−x)2k2;x∈S
UABC FCAyS (795) 31
©Prof. Raúl Espejo Rodarte (11950) [email protected] 6461766600x173 Métodos Cuantitativos Avanzados (12464) Lecturas
2.12.4 Cadenas de Markov
Consider the Bernoulli-Laplace chain with j=10, k=5, and r=4. Suppose that X0 has the uniform
distribution on S.
a. Explicitly give the transition probability function in matrix form.
b. Compute the probability density function, mean and variance of X1.
c. Compute the probability density function, mean and variance of X2.
d. Compute the probability density function, mean and variance of X3.
e. Sketch the initial probability density function and the probability density functions in
parts (a), (b), and (c) on a common set of axes.
Answer:
Run the simulation of the Bernoulli-Laplace experiment for 10000 steps and for various values
of the parameters. Note the limiting behavior of the proportion of time spent in each state.
2.12.5.2.1. Invariant and Limiting Distributions
The Bernoulli-Laplace chain is irreducible and aperiodic.
The invariant distribution is the hypergeometric distribution with population parameter j+k,
sample parameter k, and type parameter r. The probability density function is
f(x)=(rx)(j+k−rk−x)(j+kk),x∈S
Thus, the invariant distribution corresponds to selecting a sample of k balls at random and
without replacement from the j+k balls and placing them in urn 1.
The mean return time to each state x∈S is
μ(x)=(j+kk)(rx)(j+k−rk−x)
Pn(x,y)→f(y)=(ry)(r+k−rk−y)/(j+kk) as n→∞ for (x,y)∈S2.
In the simulation of the Bernoulli-Laplace experiment, vary the parameters and note the shape
and location of the limiting hypergeometric distribution. For selected values of the
parameters, run the simulation for 10000 steps and and note the limiting behavior of the
proportion of time spent in each state.
2.12.5.2.2. Reversibility
The Bernoulli-Laplace chain is reversible.
Run the simulation of the Bernoulli-Laplace experiment 10,000 time steps for selected values of
the parameters, and with initial state 0. Note that at first, you can see the arrow of time. After
a long period, however, the direction of time is no longer evident.