clase6_iocadenasmarkov

Upload: juan-paredes-campos

Post on 02-Jun-2018

452 views

Category:

Documents


16 download

TRANSCRIPT

  • 8/10/2019 Clase6_IOCadenasMarkov

    1/36

    Procesos de decisin markoviana 1 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    CADENAS DE MRKOVIntroduccinA veces nos interesa saber cmo cambia una variable aleatoria a travs del tiempo.Por ejemplo, desearamos conocer cmo evoluciona el precio de las acciones de una empresa en el mercado a travsdel tiempo.El estudio de cmo evoluciona una variable aleatoria incluye el concepto de procesos estocsticos.Aqu veremos esos procesos, en especial uno que se conoce como Cadenas de Markov.Las cadenas de Markov se han aplicado en reas tales como educacin, mercadotecnia, servicios de salud, finanzas,contabilidad y produccin.

    Qu es una cadena de Markov?Una cadena de Mrkov, que recibe su nombre delmatemtico rusoAndrei Andreevitch Markov (1856-1922), esuna serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. Enefecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo evento y esto condiciona las posibilidades delos eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Mrkov de las series de eventosindependientes, como tirar unamoneda al aire o un dado.

    Este tipo de proceso, introducido por Mrkov en un artculo publicado en 1907,presenta una forma dedependencia

    simple, pero muy til en muchos modelos, entre las variables aleatorias que forman unproceso estocstico.En losnegocios, las cadenas de Mrkov se han utilizado para analizar los patrones de compra de los deudores morosos,para

    planear las necesidades depersonal y para analizar el reemplazo de equipo.

    Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos deprocesos estocsticos, esto es, procesos que evolucionan de forma no determinstica a lo largo del tiempo en torno aun conjunto de estados.

    Una cadena de Markov, por tanto, representa un sistema que vara su estado a lo largo del tiempo, siendo cadacambio una transicin del sistema. Dichos cambios no estn predeterminados, aunque s lo est la probabilidad del

    prximo estado en funcin de los estados anteriores, probabilidad que es constante a lo largo del tiempo (sistemahomogneo en el tiempo). Eventualmente, en una transicin, el nuevo estado puede ser el mismo que el anterior y es

    posible que exista la posibilidad de influir en las probabilidades de transicin actuando adecuadamente sobre elsistema (decisin).

    En esta unidad nos ocuparemos de las llamadas cadenas de Markov finitas, caracterizadas por que el nmero deestados del sistema es finito.

    Esta unidad combina los aspectos estocsticos y dinmicos en los problemas de optimizacin, a travs de losllamadosprocesos markovianos de decisin.

    Qu es un Proceso Estocstico?Unproceso estocsticose define como una coleccin subindizada de variables aleatorias denotadas por {X t}, dondeel subndice t pertenece a otro conjunto dado. Por ejemplo X1, X2, X3,pueden representar los niveles de inventario

    al finalizar, respectivamente, los das 1, 2, 3 o bien, puede ser el nmero de participantes en los pronsticosdeportivos en las semanas 1, 2, 3,

    Cualquier secuencia de valores asociados al proceso estocstico se define como una realizacin del proceso. Porejemplo,

    X0= 9, X1= -3, X2= 324, X3= 8

    El conjunto de todos los posibles valores asociados a un proceso estocstico se define como espacio de estados. Elvalor asociado a Xkes el estado del proceso en el tiempo k. Se define como una transicin, a cualquier cambio deestado. Si el espacio de estado contiene valores discretos el proceso estocstico se denomina discreto; de otramanera, el proceso estocstico es continuo.

    La transicin de un estado a otro en dos periodos consecutivos de tiempo se puede graficar con un diagramade transicin. Por ejemplo, una fresadora en una empresa que elabora herramientas demano puede encontrarseencualquier turno de trabajo de cualquier da en uno de los siguientes estados, mutuamente excluyentes: 1) Operando,

    http://es.wikipedia.org/wiki/Matem%C3%A1ticohttp://es.wikipedia.org/wiki/Rusiahttp://es.wikipedia.org/wiki/Andr%C3%A9i_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Monedahttp://es.wikipedia.org/wiki/1907http://es.wikipedia.org/wiki/Dependenciahttp://es.wikipedia.org/wiki/Proceso_estoc%C3%A1sticohttp://es.wikipedia.org/w/index.php?title=Deudores_morosos&action=edit&redlink=1http://es.wikipedia.org/wiki/Personalhttp://es.wikipedia.org/wiki/Personalhttp://es.wikipedia.org/w/index.php?title=Deudores_morosos&action=edit&redlink=1http://es.wikipedia.org/wiki/Proceso_estoc%C3%A1sticohttp://es.wikipedia.org/wiki/Dependenciahttp://es.wikipedia.org/wiki/1907http://es.wikipedia.org/wiki/Monedahttp://es.wikipedia.org/wiki/Andr%C3%A9i_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Rusiahttp://es.wikipedia.org/wiki/Matem%C3%A1tico
  • 8/10/2019 Clase6_IOCadenasMarkov

    2/36

    Procesos de decisin markoviana 2 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II2) Parada por mantenimiento preventivo, 3) Parada por mantenimiento correctivo, 4) Parada por falta de trabajo y/o

    personal operativo, 5) Parada por falta de energa elctrica. La figura siguiente indica las posibles transiciones de unestado a otro en dos periodos consecutivos de tiempo. El arco 1, 4 indica que la mquina estuvo operando en el turnot, pero en el t+1 est parada por falta de trabajo y/o personal operativo. El proceso estocstico se puede visualizarcomo un salto aleatorio de un estado a otro en periodos consecutivos de tiempo.

    Para poder estudiar a los procesos estocsticos, debe suponerse que poseen la propiedad de Markov, es decir, que elfuturo dependenicamentedel valor del estado del presente y es independientedel pasado. Matemticamente, loanterior se expresa en la ecuacin (1)

    Definicin formal de una Cadena de MarkovEnmatemticas,se define como unproceso estocstico discreto que cumple con lapropiedad de Mrkov,es decir, sise conoce la historia del sistema hasta su instante actual, su estado presente resume toda la informacin relevante

    para describir en probabilidad su estado futuro.Una cadena de Mrkov es una secuenciaX1,X2,X3,... de variables aleatorias. El rango de estas variables, es llamadoespacio estado, el valor deXtes el estado del proceso en el tiempo t. Si la distribucin de probabilidad condicional de

    Xn+1en estados pasados es una funcin de Xtpor s sola, entonces; se dice que un proceso estocstico (X t) tiene lapropiedad markovianasi:

    P {

    = j|X0= k0, X1= k1,, Xt-1= kt-1, Xt= i}

    = P {= j|Xt= i} (1)Para t = 0, 1,y toda sucesin I, j. k0, k1, kt-1

    A esta expresion se le conoce como lapropiedad de Markovy establece que la propiedad condicional de encontrarseen el periodo t + 1, en el estado j, depende unicamente del valor del estado en el periodo t y es independiente del

    pasado (periodos 0, 1, 2, t - 2, t - 1). La probabilidad condicional (1) se conoce como probabilidad de transicion yseria, en todo caso, la que se asigna a los arcos del diagrama de transicion.

    En palabras, esta propiedad markoviana establece que la probabilidad condicional de cualquier evento futuro dados

    cualquier evento pasado y el estado actual actual Xt= i ; es independientedel evento pasado y slo depende delestado actual del proceso.

    Un proceso estocastico {Xt} (t = 0,1,) es una cadena de Markovsi tiene la propiedad markoviana.

    http://es.wikipedia.org/wiki/Matem%C3%A1ticahttp://es.wikipedia.org/wiki/Proceso_estoc%C3%A1sticohttp://es.wikipedia.org/wiki/Propiedad_de_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Propiedad_de_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Proceso_estoc%C3%A1sticohttp://es.wikipedia.org/wiki/Matem%C3%A1tica
  • 8/10/2019 Clase6_IOCadenasMarkov

    3/36

    Procesos de decisin markoviana 3 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Las probabilidades condicionales P {= j|Xt = i}para una cadena de Markov se llaman probabilidades detransicin (de un paso). Si para cada iyj,P {= j|Xt= i} = P {= j|X0= i},para toda t = 1, 2,,Entonces se dice que las probabilidades de transicin (de un paso) son estacionarias. As, tener probabilidades detransicin estacionarias implica que las probabilidades de transicin no cambian con el tiempo. La existencia de

    probabilidades de transicin (de un paso) estacionarias tambin implica que, para cada i, j y n(n=0, 1,2,),

    {= j|Xt= i} = P {= j|X0= i}Para toda t = 0,1,Estas probabilidades condicionales, se llaman probabil idades de transici n de n pasos.

    Para simplificar la notacin de las probabilidades de las probabilidades de transicin estacionarias, sea

    Pi,j= P{= j|Xt= i} para toda i, j (2)Las probabilidades Pijse consideran estacionarias: no cambian con el tiempo. De relajarse esta condicin, se tendran

    probabilidades de transicin dependientes del parmetro tiempo, lo que complicara el anlisis. Todo procesoestocstico que satisface la propiedad de Markov se conoce como una cadena de Markov.

    Laprobabilidad de transicin en n periodos, denotada por , se define como: = P {= j|Xt= i} (3)As, las probabilidades de transicin de npasos son simplemente la probabilidad condicional de que el sistemase encuentre en el estado j justo despus de n pasos (unidades de tiempo), dado que comenz en el estado i en

    cualquier tiempo t. Cuando n = 1, observe que = Cuando las son probabilidades condicionales, deben ser no negativas y, como el proceso debe hacer unatransicin a algn estado, deben satisfacer las propiedades

    0, para toda iyj; n = 0, 1, 2, (4)y

    = 1 para toda i; n=0, 1, 2, (5)Donde M es el nmero finito asociado a los diferentes estados por donde puede pasar el proceso.

    Una notacin conveniente para representar las probabilidades de transicin de npasos es la forma matricial

    P(n)

    Estados 0 1 M

    0 1 M

    Dondexies el estado del proceso en el instante i. La identidad mostrada es lapropiedad de Mrkov.

    Observe que la probabilidad de transicin en un rengln y columna dados es para la transicin del estado en eserengln al estado en la columna. Cuando n = 1 , el superndice nno se escribe y, se hace referencia a sta como lamatr iz de transicin.

    Una matriz de transicin se llama doblemente estocsticacuando = 1 para toda jUn proceso estocstico Xt es una cadena de Markov finita si cumple con cada una de las siguientes propiedades:

    Para n = 0, 1, 2, (6)

    http://es.wikipedia.org/wiki/Propiedad_de_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Propiedad_de_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Propiedad_de_M%C3%A1rkovhttp://es.wikipedia.org/wiki/Propiedad_de_M%C3%A1rkov
  • 8/10/2019 Clase6_IOCadenasMarkov

    4/36

    Procesos de decisin markoviana 4 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIa. Posee la propiedad de Markov

    b. El espacio de estados es finitoc. Las probabilidades de transicin son estacionariasd. Se conocen las probabilidades incialesP{X0= i}, para toda i

    EJEMPLOS DE CADENAS DE MARKOV1.

    Ejemplo de Partidos PolticosEn cierta nacin hay tres partidos polticos principales: El liberal (L), el conservador(C), y el demcrata (D). Lamatriz de transicin siguiente da las probabilidades de que la nacin sea controlada por cada uno de los tres partidos

    polticos despus de una eleccin, conocidas las diversas posibilidades del resultado de la eleccin anterior:L C D

    Suponiendo que el partido liberal tiene el control ahora, use un diagrama de rbol para determinar la probabilidad deque el partido conservador este en el poder despus de las dos prximas elecciones.Solucin: Los resultados posibles de las dos prximas elecciones aparecen en la figura siguiente, cuando empezamos

    con el partido liberal en el poder. Puesto que buscamos la probabilidad de que el partido conservador asuma elmando despus de dos elecciones, solo nos interesan aquellas ramas del diagrama que terminan en C. Los nmeros alo largo de las ramas son las probabilidades apropiadas dadas en la matriz de transicin. Por ejemplo el nmero 0.10en la rama de L a D es la probabilidad de que los liberales sean reemplazados por los demcratas en la eleccinsiguiente. El nmero 0.40 en la rama de D a C es la probabilidad de que los conservadores asuman el poder en lasegunda eleccin dado que los demcratas tomaron el mando en la primera eleccin. El producto (0.10)*(0.40) da la

    probabilidad de que los liberales sean reemplazados por los demcratas y stos a su vez por los conservadores.

    Las otras sucesiones (o ramas) que terminaban con los conservadores en el poder tienen las probabilidades(0.70)(0.20) y (0.20)(0.30), respectivamente. As que la probabilidad de que los conservadores asuman el poderdespus de dos elecciones es la suma de las probabilidades de estas tres sucesiones: (0.70)(0.20) + (0.20)(0.30) +(0.10)(0.40) = 0.242. Ejemplo de Fluctuaciones de la Bolsa De ValoresEl valor de una accin flucta da con da. Cuando la bolsa de valores se encuentra estable, un incremento en un datiende anteceder una baja el da siguiente, y una baja por lo regular es seguida por un alza. Podemos modelar estoscambios en el valor mediante un proceso de Markov con dos estados, el primer estado consistente en que el valor seincrementa un da dado, el segundo estado definido por la baja. (La posibilidad de que el valor permanezca sincambio se ignora). Suponga que la matriz de transicin es la siguiente:

    Cambio de maana

    Alza Baja

    L

    C

    D

    Cambio AlzaDe hoy Baja

  • 8/10/2019 Clase6_IOCadenasMarkov

    5/36

    Procesos de decisin markoviana 5 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Sin el valor de la accin baj hoy, calcule la probabilidad de que se incremente 3 das despus a partir de ahora.

    Solucin: Los estados posibles de la accin (alza o baja) durante los prximos 3 das estn dados en la figurasiguiente, en que el estado inicial es la baja. Denotemos los estados de alza o baja (esto es, incremento o decremento)

    por las letras U y D, respectivamente.

    Solo nos interesan las cuatro ramas que terminan en el estado U al cabo del tercer da. La probabilidad requerida deque la accin ir al alza en el tercer da cuando fue a la baja el da de hoy se obtiene sumando las probabilidades delas cuatro ramas antes mencionadas: (0.80)(0.10)(0.10) + (0.80)(0.90)(0.80)+(0.20)(0.80)(0.10)+(0.20)(0.20)(0.80) =0.632

    En el ejemplo 2 calculamos la probabilidad de que la accin vaya al alza al tercer da. Supngase que deseamoscalcular la probabilidad de que la accin vaya al alza o la baja al dcimo da. En este caso, el uso de un diagrama

    sera muy embarazoso. En una situacin como esta, el lgebra de matrices evita dibujar un diagrama de rbol grande.

    Consideremos un sistema de n estados posibles, de modo que cada ensayo tiene nresultados posibles. En cualquieretapa en el futuro no podemos decir en qu estado se encontrar el sistema, pero podramos estar en posicin de darlas probabilidades de que se encuentre en cada uno de los estados 1, 2, , n (en el ejemplo 3, no podemos decir laaccin ira a la baja o al alza despus de 3 das, pero s podemos afirmar que la probabilidad de que ir al alza es de0.632 y en consecuencia la probabilidad de que vaya a la baja es de 1 0.632 = 0.368) En general, SI p1, p2, , pnson las probabilidades de que el sistema se encuentre en los estados 1, 2, ,n, respectivamente, entonces la matrizrengln 1xn

    [p1 p2pn]

    Se conoce como matriz de estadoo vector de estadodel sistema. Obsrvese que p1+ p2++ pn= 1

    Denotaremos a la matriz de estado inicial con A0y a la matriz de estado despus de k ensayos (o etapas) por AkConsideremos el ejemplo 2. Cada da el sistema (valores) est en uno de los dos estados: estado 1 (alza) y estado 2(baja). En el ejemplo, al principio la accin estaba a la baja, de modo que inicialmente la probabilidad p1de que elsistema se encuentre en el estado 1 es 0 y la probabilidadp2de que el sistema se encuentre en el estado 2 es 1. As, lamatriz de estado inicial A0 del sistema es

    A0 = [p1 p2] = [0 1]

    Como se advierte en la figura, despus de 1 da, la accin est al alza (estado 1) con probabilidad p1= 0.80 y a la baja(estado 2) con probabilidad p2= 0.20. As:

    A1= [p1 p2] = [0.80 0.20]

    A partir de la figura, la probabilidad de que la accin ir al alza despus de 2 das es:

    p1= (0.80)(0.10) + (0.20)(0.80) = 0.08 + 0.16 = 0.24

  • 8/10/2019 Clase6_IOCadenasMarkov

    6/36

    Procesos de decisin markoviana 6 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    De manera similar, la probabilidad de que la accin est a la baja despus de 2 das es:

    p2= (0.80)(0.90) + (0.20)(0.20) = 0.72 + 0.04 = 0.76As que la matriz de estado A2despus de 2 das est dada por:

    A2= [p1 p2] = [0.24 0.76]

    Al cabo de 3 das la matriz de estado es:

    A3= [p1 p2] = [0.632 0.368]

    El teorema siguiente indica cmo calcular la matriz de estado del sistema en cualquier etapa si se conoce la matriz deestado de ensayo previo.

    TEOREMA 1: Si P denota la matriz de transicin de una cadena de Markov y Akes la matriz de estado despus de kensayos, entonces la matriz de estado Ak+1 despus del ensayo siguiente est dado por:

    Ak+1= AkP

    Considere de nuevo el problema 2. La matriz de estado inicial es A0= [0 1] y la matriz de transicin es:

    P = La matriz de estado despus de una etapa (da) est dado por:

    A1= A0P = [0 1] = [0.80 0.20]La matriz de estado al cabo de 2 das es:

    A2= A1P = [0.80 0.20] = [0.24 0.76]La matriz de estado al cabo de 3 das es:

    A3= A2P = [0.24 0.76] = (0.24)(0.10)+(0.76)(0.80) (0.24)(0.90) + (0.76)(0.20)[0.632 0.368]

    Estos resultados concuerdan con los que obtuvimos antes directamente del diagrama de rbol.

    VECTOR DE PROBABILIDADES INICIALES

    El vector de probabilidades se llama vector de probabilidades iniciales de la cadena.El vector de probabilidades iniciales y la matriz de transicin determinan la probabilidad para el estado de la cadenaen el segundo instante de tiempo, dicha probabilidad viene dada por el vector Adems, si las probabilidades de los diversos estados en el instante se especifican por el vector de probabilidades, entoncesEjemplo: En el ejemplo del clima con matriz de transicin:

    Soleado(S) Nublado(N)P = Soleado(S) 0.70 0.30Nublado(N) 0.60 0.40

    Las probabilidades en el instante + se especifican por el vector de probabilidades

  • 8/10/2019 Clase6_IOCadenasMarkov

    7/36

    Procesos de decisin markoviana 7 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Suponemos que la probabilidad de que el mircoles haga sol es 0.2 y la probabilidad de que est nublado es 0.8.Calcular:

    1. Probabilidad de que est nublado el jueves.2. Probabilidad de que est nublado el viernes.3. Probabilidad de que est nublado el sbado.Solucin1. Mircoles: + + P[este nublado el jueves] = 0.382. P[este nublado el viernes] = 0.3383. P[este nublado el sbado] = 0.3338

    3. Ejemplo Modalidad de TransporteLa gente que trabaja en el centro de la ciudad de Lima y no vive en los suburbios cercanos puede trasladarse a sustrabajos mediante transportacin pblica (autobuses) o usando automviles privados. Actualmente, el 25% de tales

    personas usan los autobuses y el 75% utilizan sus automviles. Debido a una reduccin en el espacio deestacionamiento, la ciudad ha incrementado de forma considerable el nmero de autobuses a y desde la ciudad, conla intencin de que ms personas cambien a autobuses y as aliviar el problema del estacionamiento. Con base enuna encuesta de la poblacin trabajadora, los funcionarios esperan que con los autobuses adicionales, cada ao 60%de los que usan automvil cambie a autobs, mientras que el 20% de los que usan autobs regrese a automvil. A losfuncionarios les interesa el efecto a largo plazo de los autobuses adicionales; esto es, el porcentaje de los que a largo

    plazo cambien al uso de los autobuses o el automvil.

    Denotemos a la matriz de estado en cualquier ao por [p 1 p2], en donde p1es la proporcin de los que cambian al

    uso de los autobuses y p2es la proporcin de los que usan el automvil. La matriz inicial es:

    A0= [0.25 0.75]

    La probabilidad de que un usuario del autobs contine usndolo el ao siguiente es 0.80, mientras que laprobabilidad que cambie al automvil es 0.20. Las probabilidades correspondientes para los que usan automvilesson 0.60 y 0.40, de modo que la matriz de transicin Pes la siguiente:

    La gente usarAutobuses el AutomvilesAo prximo el ao prximo

    Por consiguiente, las matrices de estado despus de 1, 2, 3,y 6 aos son las que aparecen a continuacin:

    A1= A0P = [0.25 0.75] = [0.64 0.35]A2= A1P = [0.65 0.35] = [0.73 0.27]A3= A2P = [0.73 0.27]

    = [0.746 0.254]

    A4= A3P = [0.746 0.254] = [0.749 0.251]

    Autobuses este aoLa gente usa:

    Automviles este ao

  • 8/10/2019 Clase6_IOCadenasMarkov

    8/36

    Procesos de decisin markoviana 8 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    A5= A4P = [0.749 0.251] = [0.750 0.250]A6= A5P = [0.750 0.250]

    = [0.75 0.25]

    En donde redondeamos el resultado a 3 cifras decimales. Observemos que despus de 5 aos, el porcentaje de laspersonas que usan autobuses se estabiliza en 75% y el porcentaje de los que usan automviles en 25%.

    Supongamos ahora que la matriz de estado inicial es: A = [0.20 0.80] en lugar de [0.25 0.75]. En otras palabras, el20% de las personas que requieren transporte usan autobuses y el 80% emplean el automvil. En este caso, lasmatrices de estado despus de 1, 2, 3, 4 y 5 aos son las siguientes:

    A1= A0P = [0.20 0.80] = [0.64 0.36]A2= A1P = [0.64 0.36] = [0.728 0.272]A3= A2P = [0.728 0.272] = [0.746 0.254]A4= A3P = [0.746 0.254] = [0.749 0.251]A5= A4P = [0.749 0.251] = [0.750 0.250]Recuerde que A5, tambin puede calcularse asi:

    A5 = A0= [0.2 0.8] = [0.2*0.75008+0.8*0.749760.2*0.24992 + 0.8*0.25024] = [0.749824 0.250176]A5 = [0.749824 0.250176]

    As que de nuevo vemos que el porcentaje de la gente que usa autobuses se estabiliza en 75% y el porcentaje de losque usarn el automvil en 25%.

    Observemos que la matriz de estado se estabiliza en [0.25 0.75] [0.20 0.80]. Estos resultados no sonaccidentales; en muchas cadenas de Markov la matriz de estado se estabiliza despus de un gran nmero de ensayossin importar la matriz de estado inicial. Esto es consecuencia del teorema siguiente, que se establece sindemostracin.

    TEOREMA 2: Una matriz de transicin Pse dice que es regularsi para algn entero positivo kla matriz Pkno tieneelementos iguales a cero. Si Pes una matriz de transicin regular, entonces sin importar la matriz de estado inicial.Las matrices de estado sucesivas se aproximan a alguna matriz de estado fija Ben donde BP = B.La matriz Bse denomina matriz estacionaria (o de estado estable)del sistema.

    En el estudio anterior de un problema de transito urbano, encontramos que la matriz estacionaria (con trescifras decimales) es: B = [0.750 0.250]Demostraremos que esta misma matriz estacionaria puede obtenerse usando el teorema 2. La matriz de transicin es:

    P = Sea B = [p1 p2] la matriz estacionaria requerida. Puesto que por definicin, la suma de las probabilidades de unamatriz de estado es 1, debemos tener que p1+ p2= 1 (1)Ahora la ecuacin BP = B implica que:

    [p1 p2] [p1 p2]Esto es,[0.80p1+ 0.60p2 0.20p1+ 0.40p2] = [p1 p2]

    Lo cual da0.80p1+ 0.60p2= p1

  • 8/10/2019 Clase6_IOCadenasMarkov

    9/36

    Procesos de decisin markoviana 9 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II0.20p1+ 0.40p2= p2

    Estas ecuaciones son idnticas una a la otra y la solucin es p 1 = 3P2. Sustituyendo esto en la ecuacin (1),obtenemos:3p2+ p2= 1 p2= = 0.25Por consiguiente, de la ecuacin (1),

    P1= 1p2= 10.25 = 0.75De ah que:B = [p1 p2] = [0.75 0.25]Esto concuerda con los resultados que se obtuvieron antes

    Tambin se puede calcular encontrando el estado estacionario de la matrizPor ejemplo para n = 20, los valores se ven en la siguiente figura

    De all se deduce que 4. Ejemplo de CerveceraLa cervecera ms importante del mundo (Guiness) ha contratado a un analista de investigacin de operaciones paraanalizar su posicin en el mercado. Estn preocupados en especial por su mayor competidor (Heineken). El analista

    piensa que el cambio de marca se puede modelar como una cadena de Markov incluyendo tres estados, los estados Gy H representan a los clientes que beben cerveza producida por las mencionadas cerveceras y el estado I representatodas las dems marcas. Los datos se toman cada mes y el analista ha construido la siguiente matriz de transicin delos datos histricos.

    Cules son los porcentajes de mercado en el estado estable para las dos cerveceras grandes?

    SOLUCIN:Tres estados {G, H, I}El problema consiste en resolver el sistema formado por las ecuaciones siguientes:[p1 p2 p3] = [p1 p2 p3][p1 p2 p3]

    = [p1 p2 p3]

    Siendop1la probabilidad de que el consumidor compre G,p2de que el consumidor compre H yp3la del queconsumidor compre I.

    De ambas expresiones se obtiene el siguiente sistema:

    0.70p1+ 0.20p2 + 0.10p3= p10.20p1+ 0.75p2+ 0.10p3= p20.10p1 + 0.05p2 + 0.80p3 = p 3 (Puede elegirse 1, 2 y 4 ecuacin, descartando la 3)

    p1+ p2+ p3 = 1

    - 0.30p1+ 0.20p2 + 0.10p3= 0

    0.20p10.25p2+ 0.10p3= 0P1 + p2+ p3= 1

    Resolviendo, la solucin es: p1= 9/26 = 0.3462; p2= 10/26 = 0.3846; p3= 7/26 = 0.2692

  • 8/10/2019 Clase6_IOCadenasMarkov

    10/36

    Procesos de decisin markoviana 10 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    5 Ejemplo:Dada la matriz de transicin encuentre la matriz de estado estable resolviendo la ecuacinBP = BRespuesta [5/12 7/12] = [0.4167 0.5833]

    6.

    Ejemplo de Prediccin del TiempoLa variacin del tiempo de un da a otro se supone que forma una cadena de Markov con la matriz de transicinsiguiente:

    MaanaSoleado Nublado Lluvioso

    = PDado que hoy (domingo) est nublado, Cul es la probabilidad de que el mircoles sea soleado?Solucin: Definamos los estados 1, 2 y 3 como soleado, nublado y lluvioso, respectivamente. Puesto que hoy estnublado (domingo), tenemos que p1= 0, p2= 1, p3 = 0 y la matriz de estado inicial es:

    A0= [p1 p2 p3] = [0 1 0]

    La matriz de estado al cabo de un da (el lunes) est dado por:

    A1= A0P = [0 1 0] = [0.20 0.50 0.30]

    La matriz de estado el martes (despus de 2 das) es:

    A2= A1P = [0.20 0.50 0.30]

    = [0.25 0.41 0.34]

    La matriz de estado el mircoles (despus de 3 das) es:

    A3= A2P = [0.25 0.41 0.34] = [0.266 0.391 0.343]

    Por consiguiente, la probabilidad de que el mircoles sea soleado es 0.266

    7. Ejemplo Aplicado al ClimaDespus de mucho estudio sobre el clima, hemos visto que si un da est soleado, en el 70% de los casos el dasiguiente continua soleado y en el 30% se pone nublado. En trminos de probabilidad, lo que nos sirve entonces para

    predecir el clima, vemos que la probabilidad de que contine soleado el da siguiente es 0.7 y la probabilidad de queal da siguiente est nublado es 0.3. Tambin nos fijamos en que si un da est nublado, la probabilidad de que estsoleado el da siguiente es 0.6 y la probabilidad de que se ponga nublado es 0.4

    PreguntaHoy est nublado, cul es la probabilidad de que maana contine nublado? Cul es la probabilidad de que estnublado pasado maana?

    Podemos ilustrar esta situacin por medio de un diagrama de rbol:

    SoleadoHoy Nublado Lluvioso

  • 8/10/2019 Clase6_IOCadenasMarkov

    11/36

    Procesos de decisin markoviana 11 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Figura 2: Posibles estados del tiempo a partir de hoy esta nublado

    Con la ayuda de la Figura 2 podemos predecir qu ocurrir maana si sabemos que hoy est nublado.Vemos que la probabilidad de que maana contine nublado es 0.4, es decir, si hiciramos esta prediccin muchasveces estaramos en lo correcto cerca del 40% de las veces. Para conocer la probabilidad de est nublado pasadomaana buscamos en las hojas del rbol correspondientes al Tiempo pasado maana los lugares donde dice nublado.

    Hay dos hojas donde esto ocurre. Ahora lo que queda es determinar cmo desde el principio, desde la raz del rbol,podemos llegar all.Si hoy est nublado, para que pasado maana est nublado, podramos tener un da de maana soleado o nublado.As tenemos las siguientes secuencias en orden de (hoy, maana, pasado maana): (nublado, soleado, nublado) o(nublado, nublado, nublado) donde pasado maana es nublado. Estas secuencias son mutuamente excluyentes,corresponden a caminos distintos en el rbol, as tenemos que:P (pasado maana nublado | hoy nublado)= P ((nublado, soleado, nublado) o (nublado, nublado, nublado))= P (nublado, soleado, nublado) + P (nublado, nublado, nublado) = (0.6*0.3) + (0.4*0.4) = 0.34.Este resultado se obtuvo multiplicando las probabilidades condicionales a lo largo de los caminos desde hoy nubladohasta pasado maana nublado. No es necesario que seamos tan especficos en trminos de hoy, maana o pasadomaana, podemos darnos cuenta que lo realmente importante es el nmero de das que pasa entre una prediccin yotra. El problema que tratamos es equivalente al problema en que si en el da 0 est nublado, cul es la probabilidad

    un da despus tambin est nublado?, dos das despus?, 100 das despus?...

    Solucin con Cadenas de MarkovCon esta informacin modelar el clima del pueblo como una cadena de Markov.Se trata de una cadena de Markov con dos estados {Soleado, Nublado} que para abreviar representaremos por {S,

    N}, siendo la matriz de probabilidades de transicin:Soleado(S) Nublado(N)

    P = Soleado(S) 0.70 0.30Nublado(N) 0.60 0.40

    Se pide la probabilidad de transicin en dos pasos, es decir que se pide el valor en fila 2, columna 1 para la matriz P2:

    P2=

    = (0.60*0.30) + (0.40*0.40) = 0.34

    PreguntaHoy est nublado, cul es la probabilidad de que est nublado tres das despus? Representa estaSituacin con un rbol.

  • 8/10/2019 Clase6_IOCadenasMarkov

    12/36

    Procesos de decisin markoviana 12 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    El proceso de este ejemplo slo puede adquirir uno de dos estados posibles s1= nublado y s2= soleado.La probabilidad con que se va de un estado a otro depende del estado en que estamos en el presente.Dejemos que X1 represente el estado del clima del da nmero 1, X2 el estado del clima del da nmero 2 y assucesivamente. En general, para n = 1, 2,... sea Xnel estado del clima en el ensimo da.La sucesin de observaciones X1, X2,... se llama un proceso estocstico o proceso aleatorio. La primeraobservacin X1se conoce como el estado inicial del proceso y para n = 2, 3,..., X nes el estado del proceso en eltiempo n. En un proceso de este tipo los valores de las observaciones no pueden predecirse con precisin deantemano. Sin embargo puede especificarse una probabilidad de observar determinado valor, tal como en nuestroejemplo.En un proceso estocstico el estado vara en una forma aleatoria. Para describir el modelo de probabilidad esnecesario especificar una probabilidad para cada uno de los posibles valores del estado inicial. Tambin es necesarioespecificar para cada estado subsiguiente Xn+1 todas las probabilidades condicionales de la forma siguiente: P (Xn+1= sn+1 | X1= s1, X2= s2, ..., Xn= s n). Esto quiere decir que para todos los tiempos n, el modelo de probabilidad debeespecificar la probabilidad condicional de que el proceso est en el estado s n+1 en el tiempo n+1, dado que en lostiempos 1, 2, ..., n el proceso estuvo en los estados s1, s2, ..., sn.Muchos procesos reales, como el del ejemplo, se pueden modelar examinando nicamente la historia ms reciente, esdecir, examinando su ltimo estado, sin considerar todos los estados anteriores. Una cadena de Markov (general) esun proceso de esta naturaleza: en el momento n el estado actual del proceso y todos los estados anteriores sonconocidos, entonces las probabilidades de todos los estados futuros Xj(j > n) dependen nicamente del estado actualXny no de los anteriores, X1, X2,... Xn-1. Esto se puede ver en el diagrama de rbol, si sabemos cul es estado delclima hoy, no tenemos que saber cul fue el de ayer, antier o antes.Formalmente, una cadena de Markov es un proceso estocstico tal que para n = 1, 2, .... y para cualquier sucesin

    posible de estados s1, s2, ..., sn+1, tenemosP(Xn+1= sn+1| X1= s1, X2= s2, ..., Xn = sn) = P(Xn+1= sn+1| Xn = sn).Tal como en el ejemplo del clima, si usamos la regla de multiplicacin repetidas veces vemos que las probabilidadesen una cadena de Markov deben cumplir:P( X1= s1, X2= s2, ..., Xn= sn)= P (X

    1= s

    1) P(X

    2= s

    2| X

    1= s

    1) P(X

    3= s

    3| X

    2= s

    2) ... P(X

    n= s

    n| X

    n-1= s

    n-1).

    PreguntaDemuestra este ltimo resultado.

    En general, consideramos una cadena de Markov que en cualquier momento estar en alguno de un nmero finito kde estados s1, s2, ..., sk. Un proceso aleatorio de esta naturaleza se llama una cadena de Markov finita.

    PreguntaEs el ejemplo del estado del clima una cadena de Markov finita? Explica. Identifica los estados.

    La probabilidad condicional P(Xn+1 = sj| Xn = si),de que la cadena estar en el estado sjen el tiempon + 1 si est en el estado sien el tiempo n se conoce como una probabilidad de transicin. Si para una cadena deMarkov esta probabilidad de transicin tiene el mismo valor para todo los tiempos n (n = 1, 2, 3, ... ) decimos que lacadena tiene probabilidades de transicin estacionarias . Es decir una cadena de Markov tiene probabilidades de

    transicin estacionarias si para cualquier estados siy sjexiste una probabilidad de transicinpijtal que P(Xn+1= sj| Xn= si) =pijpara n =1, 2, 3,...Pregunta

  • 8/10/2019 Clase6_IOCadenasMarkov

    13/36

    Procesos de decisin markoviana 13 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IISon las probabilidades del ejemplo del estado del clima estacionarias? Construye ejemplos de situaciones que se

    puedan representar por procesos estocsticos, por cadenas de Markov generales, por cadenas de Markov finitas,

    por cadenas de Markov finitas con probabilidades estacionarias.

    Las probabilidades del ejemplo pueden presentarse en forma de matriz:

    Soleado(S) Nublado(N)

    P = Soleado(S) 0.70 0.30Nublado(N) 0.60 0.40

    Esta matriz que incluye las probabilidades de pasar de un estado a otro en un paso se llama la matriz de transicin.Los elementos en cada una de las filas suman uno. En la primera fila representamosP(Xn= s1| Xn-1 = s1) = P( soleado | soleado) =0.7 y P(Xn= s2| Xn+1 = s1) = P( nublado | soleado) = 0.30

    PreguntaQu probabilidades condicionales representa la segunda fila?

    En general, considera una cadena de Markov con k estados posibles s1, s2, ..., sky probabilidades estacionarias. Para i= 1, 2, 3, ..., k y j = 1, 2, 3, ..., k denotaremos porpijla probabilidad condicional de que el proceso estar en el estadosj en un determinado momento si est en el estado si en el momento inmediatamente anterior. Entonces la matriz detransicin de la cadena de Markov se define como una matriz de dimensiones k x k, que llamamos P con elementospij:

    P = El elemento en la fila i, columna j pij=P( Xn= sj | Xn-1 = si), representa la probabilidad de transicin de un paso.Estos elementos son probabilidades, vemos quepij0 para toda i, j y que adems la suma de estos valores en cadafila es igual a 1: = 1Esto nos dice que si estamos en el estado i, entonces la suma de las probabilidades de ir a un estado s 1, s2, ..., skesuno.

    El usar esta representacin en forma de matriz nos facilita el cmputo de las probabilidades de transicin en ms deun paso. Regresemos al ejemplo del estado del clima y aadamos algo de notacin. Digamos que el estado s 1es iguala n, indicando que el da est nublado y s2es igual a s indicando que est soleado. Sea Xn el estado del clima en elensimo da en que se observe. As Xn ser igual a n si el da est nublado y ser igual a s si el da est soleado.La pregunta que contestamos antes, la probabilidad de que pasado maana est nublado si sabemos que hoy estnublado corresponde entonces a encontrar P(X3 = n | X1 = n). Para calcular esta probabilidad examinamos los

    posibles estados del da de maana y las formas de cmo llegar a X3= n, vemos esto en el siguiente rbol:

    As la probabilidad que nos interesa se puede calcular como hicimos antes, usando la frmula de probabilidad total:P( X3 = n | X1= n) = (0.6 * 0.3) + (0.4 * 0.4) en trminos de nuestra notacin esto es igual a= (p21* p12) + (p22* p22)= P( X2= s | X1 = n) P( X3= n | X2= s) + P( X2= n | X1 = n) P( X3= n | X2 = n).

    Es decir, hemos descompuesto el evento de que pasado maana est nublado si sabemos que hoy lo est en trminos

    de todas los estados que se pueden observar maana. Entonces, para cada posible estado del clima de maanaexaminamos cmo podemos tener el da de pasado maana nublado. Ahora veamos la expresin resultante. Si

  • 8/10/2019 Clase6_IOCadenasMarkov

    14/36

    Procesos de decisin markoviana 14 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIexaminamos la expresin (p21 * p12) + (p22 * p22), vemos que sta corresponde al elemento en la segunda fila ysegunda columna de la matriz que resulta al multiplicar P *P. Es decir

    PxP = + + + + Esta ltima matriz es la matriz de transicin del proceso en dos pasos. Nos da las probabilidades de llegar en dos

    pasos a cualquier estado si partimos de un estado particular. Por ejemplo, de ah podemos leer que P(X3 = n | X1= s)=0.33 y P(X3= s | X1= n) =0.66. Como el proceso es estacionario podemos inclusive determinar que P(X5 = n | X3=n) = 0.34, ya que lo nico que afecta el resultado es el nmero de das en el futuro en que queremos hacer la

    prediccin.Podemos extender este argumento a cualquier nmero de das en el futuro en que queremos hacer la prediccin,vemos que P *P = P2corresponde a las probabilidades de transicin en dos pasos, entoncesP3, P4,..., Pm,... corresponden a las probabilidades de transicin en 3, 4,..., m pasos respectivamente.De hecho, la matriz Pm se conoce como la matriz de transicin en m pasos de la cadena de Markov.

    Estas matrices pueden encontrarse fcilmente usando una calculadora con esta capacidad o un programa decomputadoras tal como Excel.Hasta ahora no sabemos las probabilidades de encontrar el clima en un estado particular (soleado o nublado)respectivamente del estado del tiempo de hoy, es decir no sabemos P (X n = s), por ejemplo. Si aplicamos ladefinicin de probabilidad condicional y la frmula de probabilidad total, sabemos que

    P(X2= s) = P(X2= s y X1= s) + P(X2= s y X1= n)= P(X2 = s | X1= s)P(X1= s) + P(X2 = s | X1 = n)P(X1 = n).

    As que para calcular P(X2 = s) debemos conocer el valor de P(X1= s) y de P(X1 = n) adems de las probabilidadescondicionales. Estas ltimas estn dadas en la matriz de transicin, as que son conocidas. Las probabilidades P(X 1=s) = w1y P(X1= n) = w2se conocen como las probabilidades iniciales del sistema. Su valor se puede estimar osuponer a travs del historial de das soleados o nublados con que se cuente hasta ese momento. Podemos escribirP(X2 = s) = w1p11 + w2p21, recordando que el estado nmero 1 corresponde a soleado y el estado nmero 2corresponde a nublado. Debemos darnos cuenta que w 1 + w2 = 1, pues estas probabilidades incluyen todos los

    posibles estados en que puede estar el sistema.

    PreguntaEncuentra P(X2= s) si w1= 0.70 y w2=0 .30

    Podemos extender la notacin de matrices a las probabilidades inciales, esta vez usando un vector de probabilidad.Considera una cadena de Markov con k estados posibles s 1, s2,..., sky probabilidades estacionarias. Supongamos queal inicio, la cadena puede estar en cualquiera de los k estados con la probabilidad de que est en el estado s i con

    probabilidad wi 0, es decir P(X1 = s i) = wi para i = 1, 2,..., k y que adems w1 + w2 +...+ wk = 1. Estasprobabilidades describen un vector de probabilidad w = (w1, w2,..., wk), en este caso llamado vector deprobabilidad inicial.

    Usando este vector de probabilidad inicial podemos calcular por ejemplo,

    Esta ltima sumatoria corresponde al componente j del vector WP, as las probabilidades de que X2 est encualquiera de los k estados estn dadas por el vector VP. Podemos generalizar este resultado an ms.Supongamos que en el tiempo n, la probabilidad de que el sistema est en el estado si es P(Xn= s i) = vi,Entoncesp (= ) = Para j = 1, 2,..., k. Dicho de otra forma, si las probabilidades de los estados en el tiempo n estn especificadas por elvector de probabilidad v, entonces las probabilidades en el tiempo n+1 estn especificadas por el vector de

    probabilidad vP. De aqu podemos ver que si el vector de probabilidad inicial para una cadena de Markov conprobabilidades de transicin estacionarias es w, entonces las probabilidades de los varios estados en el tiempo n+1

    estn especificados por el vector de probabilidad VPn

    .

    8. Ejemplo una computadora

  • 8/10/2019 Clase6_IOCadenasMarkov

    15/36

    Procesos de decisin markoviana 15 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIUna computadora se inspecciona cada hora. Se encuentra que est trabajando o descompuesta. Si est trabajando la

    probabilidad de que siga trabajando la siguiente hora es 0.9 Si est descompuesta, se toman las medidas pararepararla lo que puede llevar ms de una hora. Siempre que la computadora est descompuesta, Independientementede cunto tiempo haya pasado, la probabilidad de que siga descompuesta la siguiente hora es 0.35.

    a. Modele el sistema como una cadena de Markov.

    Solucin:Debemos definir los estados

    Eo = La mquina est trabajandoE1= La mquina est descompuesta

    Eo E1Eo 0.9 0.1E1 0.65 0.35

    b. Hoy est trabajando, Cul es la probabilidad de que en 4 hrs siga trabajando

    Solucin:Buscamos T4 = P(4)

    T4

    = Eo E1Eo 0.85 0.15E1 0.84 0.16

    9. Ejemplo de zonas donde viven las familiasCada familia norteamericana se puede clasificar como habitante de una zona urbana, rural o suburbana, durante unao determinado el 15% de las familias urbanas se cambian a la zona suburbana y el 5 % a la zona rural. El 6% de lasfamilias suburbanas pasan a la zona urbana y el 4% a la rural, el 4% de las familias rurales pasan a la zona urbana yel 6% a la suburbana.a. Construya la matriz de transicinSolucin:Debemos definir los estados

    Eo = Zona urbanaE1 = Zona RuralE2= Zona SuburbanaEo E1 E2

    Eo 0.8 0.05 0.15E1 0.04 0.90 0.06E2 0.06 0.04 0.90

    b. Si una familia vive actualmente en la zona urbana Cul es la probabilidad que despus de dos aos viva en lazona urbana?Solucin:

    Buscamos T2

    Eo E1 E2Eo 0.651 0.091 0.258E1 0.0716 0.8144 0.114E2 0.1036 0.075 0.8214

    El valor que buscamos se encuentra en azul y este nos indica que la probabilidad que buscamos es del 65.1 %.

    c. Suponga que en la actualidad el 40% de las familias viven en la zona urbana, el 35% en la zona suburbana y el25 en la zona rural. Despus de dos aos Qu porcentaje de familias vivir en la zona urbana?Solucin:Debemos identificar el vector P =

    0.4 0.25 0.35

  • 8/10/2019 Clase6_IOCadenasMarkov

    16/36

    Procesos de decisin markoviana 16 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIQue lo tomamos de los porcentajes que nos da el problema.

    Buscamos P*T2

    Lo que nos da este resultado:

    0.31456 0.26625 0.41919

    10. Ejercicio Aplicado a la ComercializacinEn cierto mercado compiten tres marcas de cierto producto de consumo que se adquiere semanalmente. Efectuandoun sondeo entre los establecimientos minoristas en los que se vende se estima que, de cada cien consumidores del

    producto, en la semana que ahora termina diez adquirieron la marca 1, veinte la marca 2 y setenta la marca 3. Se harealizado, adems, un sondeo sobre la intencin de compra de los consumidores y se ha llegado a la conclusin deque:

    o De cada 100 consumidores que adquirieron la marca 1 la pasada semana, 50 volvern a adquirirla, 10cambiarn a la 2 y el resto adquirir la tres.

    o

    Con relacin a la marca 2, de cada 100 que la adquirieron la pasada semana, 80 la volvern a adquirir, 10cambiarn a la 1, y otros 10 a la 3.o En cuanto a la marca 3, de cada 100 adquirientes la ltima semana, 30 cambiarn a la 1, 20 a la 2 y el resto

    volvern a adquirir la misma.Se desea estimar las cuotas de mercado de las tres marcas en la semana finalizada y prever las de la prxima.Solucin:

    o cuotas de mercado de la semana finalizada: vector de estado (0, 1, 0, 2, 0, 7)o cuotas de mercado de la prxima semana:

    Matriz de transicin: vector de estado para la prxima semana: (0.28, 0.31, 0.41)

    Cadenas de MARKOV.Suponiendo que no se modifiquen las proporciones de consumidores que, entre semanas consecutivas, deseancambiar de cada marca a cada una de las otras, se desea estimar las cuotas de ventas de las 3 marcas del ejercicioanterior la semana siguiente a la prxima.Solucin: vector de estado: (0,294, 0,358, 0,348)

    11. Ejemplo de Mercado.9. En cierto mercado compiten tres marcas de cierto producto de consumo que se adquiere quincenalmente.Efectuando un sondeo entre los establecimientos minoristas, se estima que de cada 100 consumidores del producto,en la quincena que ahora termina 30 adquirieron la marca 1, otros 30 la marca 2 y cuarenta la marca 3. Se harealizado adems, un sondeo sobre la intencin de compra de los consumidores, llegndose a la conclusin de que la

    prxima quincena piensan adquirir la marca 1 el 25% de los que ya la adquirieron la quincena que ahora finaliza, el30% de los que adquirieron la marca 2 y el 20% de los que adquirieron la marca 3. Desean adquirir la marca 2 el

    40% de los que la adquirieron la ltima quincena, el 20% de los que compraron la marca 1 y el 25% de los queadquirieron la marca 3. Finalmente piensan adquirir la marca 3 el 55% de los que adquirieron la marca 1, el 30% delos que compraron la marca 2 y el 55% de los que ya la adquirieron la quincena pasada. Se desea prever las cuotas

    para las prximas dos quincenas.Solucin:

    Vector de estado: (0,3, 0,3, 0,4)

    Matriz de transicin:

    o

    cuotas para la prxima quincena: (0,245, 0,280, 0,475)o cuotas para la siguiente: (0,24025, 0,27975, 0,48)

    Eo E1 E2Eo 0.651 0.091 0.258E1 0.0716 0.8144 0.114E2 0.1036 0.075 0.8214

    0.4 0.25 0.35

  • 8/10/2019 Clase6_IOCadenasMarkov

    17/36

    Procesos de decisin markoviana 17 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    12. Ejemplo de MercadoEl departamento de estudios de mercado de una fbrica estima que el 20% de la gente que compra un producto unmes, no lo comprar el mes siguiente. Adems, el 30% de quienes no lo compren un mes lo adquirir al messiguiente. En una poblacin de 1000 individuos, 100 compraron el producto el primer mes. Cuntos lo comprarn almes prximo? Y dentro de dos meses?Para resolver este tipo de problemas, lo primero es hacer un esquema.

    A la vista del esquema podemos pasar a construir la matriz de probabilidades de transicin:

    0 1

    0 0.80 0.20

    1 0.30 0.70

    CalculoMatriz inicial

    El primer mes comprarn 350 y no comprarn 650

    El segundo mes comprarn 475 y no comprarn 525

    13. Ejemplo de ClimaEl clima en el pueblo de Centerville puede cambiar con rapidez de un da a otro. Sin embargo, las posibilidades detener clima seco (sin lluvia) maana es de alguna forma mayor si hoy est seco, es decir, no llueve. En particular, la

    probabilidad de que maana est seco es de 0.8 si hoy est seco, pero es de slo 0.6 si hoy llueve. Estasprobabilidades no cambian si se considera la informacin acerca del clima en los das anteriores a hoy.La evolucin del clima da tras da en Centerville es un proceso estocstico. Si se comienza en algn da inicial, elclima se observa cada da t, para t=0, 1, 2,El estado del sistema en el da t puede ser.

    Estado 0 = El da t es seco. oEstado 1= El da t es lluvioso

    La matriz P contiene los estados posibles, del problema.Debe leerse que la si hoy es un da seco la probabilidad que maana sea seco es 0.8.Si hoy es un seco, la probabilidad que maana sea lluvioso es 0.2.

    7.03.0

    2.08.0)1(

    P

    )650,350(7.03.0

    2.08.0900100N),(

    C

    55.045.0

    3.07.0

    7.03.0

    2.08.0

    7.03.0

    2.08.0)2(

    P

    )525,475(55.045.0

    3.07.0900100N),(

    C

  • 8/10/2019 Clase6_IOCadenasMarkov

    18/36

    Procesos de decisin markoviana 18 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IISi hoy es un da lluvioso, la probabilidad que maana sea seco es 0.6.Si hoy es un da lluvioso, la probabilidad que maana sea lluvioso es 0.4

    El proceso estocstico proporciona una representacin matemtica de la forma como evoluciona el clima Centervillea travs del tiempo.

    Matrices de transicin de estados en n pasos del clima:La probabilidad del estado del clima dos, tres, cuatro, cinco das a futuro se puede conocer a partir de las matrices detransicin de dos, tres, cuatro y cinco pasos que se calculan bajo las ecuaciones de Chapman Kolmogorov. Partiendode la matriz de transicin de un paso.

    Observe que en la matriz de cinco pasos, las dos filas tienen elementos idnticos. Esto se denomina probabilidad delestado estable de la cadena de Markov.

    14. Ejercicio de FumadoresEn una poblacin de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o menos de un paquete diario y 2500fuman ms de un paquete diario. En un mes hay un 5% de probabilidad de que un no fumador comience a fumar un

    paquete diario, o menos, y un 2% de que un no fumador pase a fumar ms de un paquete diario. Para los que fumanun paquete, o menos, hay un 10% de probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar ms de un

    paquete diario. Entre los que fuman ms de un paquete, hay un 5% de probabilidad de que dejen el tabaco y un 10%de que pasen a fumar un paquete, o menos. Cuntos individuos habr de cada clase el prximo mes? Y dentro de

    dos meses?

    4.06.0

    2.08.0

    1

    0

    10

    P

    lluviosoestdasi1

    secoestdasi0t

    X

    4.06.0

    2.08.0)1(

    P

    28.072.0

    24.076.0

    4.06.0

    2.08.0

    4.06.0

    2.08.0)1()1()2(PPP

    256.0744.0

    248.0752.0

    28.072.0

    24.076.0

    4.06.0

    2.08.0)2()1()3(

    PPP

    251.0749.0

    25.075.0

    256.0744.0

    248.0752.0

    4.06.0

    2.08.0)3()1()4(

    PPP

    25.075.025.075.0

    251.0749.025.075.0

    4.06.02.08.0)4()1()5( PPP

  • 8/10/2019 Clase6_IOCadenasMarkov

    19/36

    Procesos de decisin markoviana 19 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    P

    1

    =

    Despus de un mes habrn NF=5025, FC=2500, FCC=2475

    Despus de dos mes habrn NF=5047, FC=2499, FCC=2455Qu pasara si hubisemos partido de otra matriz de estado?Supongamos que al comienzo del estudio partimos con: 10000 personas

    4,000 no fumadores

    3,500 fuman 1 paquete, o menos, diario 2,500 fuman ms de un paquete diario.

    En este caso la matriz de probabilidades de transicin no cambia,

    Slo tenemos que modificar X. Por lo tanto la situacin a la que tiende este tipo de problemas es independientede la matriz de estado inicial.

    15. Ejemplo de SupermercadoEn una comunidad hay 3 supermercados (S1, S2, S3) existe la movilidad de un cliente de uno a otro. El 1 deseptiembre, de los clientes va al S1, 1/3 al S2y 5/12 al S3de un total de 10.000 personas. Cada mes l S 1retiene el90% de sus clientes y pierde el 10% que se va al S 2. Se averigu que el S2solo retiene el 5% y pierde el 85% que vaa S1y el resto se va a S3, el S3retiene solo el 40%, pierde el 50% que va al S1y el 10% va al S2.a) Establecer la matriz de transicin

    b) Cul es la proporcin de clientes para los supermercados el 1 de noviembre?c) Hallar el vector de probabilidad estable.

    0 1 2

    0 0.93 0.05 0.02

    1 0.10 0.80 0.10

    2 0.05 0.10 0.85

    )2475,2500,5025(80.010.005.0

    10.080.010.0

    02.005.093.0

    250025005000FCC),,(

    FCNF

    )25.2454,75.2498,5047(7335.01675.0099.0

    167.0655.0178.0

    0406.00885.08709.0

    250025005000FCC),,(

    FCNF

  • 8/10/2019 Clase6_IOCadenasMarkov

    20/36

    Procesos de decisin markoviana 20 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IISolucin:La matriz de transicin para el orden S1, S2, S3 es:

    a) Para el mes de noviembre (han transcurrido 2 meses desde 1 de septiembre), la proporcin de clientes es

    [ ] P2 = [ ] = [0.8158 0.0958 0.0883]

    b) El vector de probabilidad estable se obtiene resolviendo:[p1 p2 p3]*P = [p1 p2 p3]

    p1+ p2+ p3= 1

    [p1 p2 p3] * = [p1 p2 p3]El sistema resultante es:

    0.90p1+ 0.85p2+ 0.50p3= p10.10p1+ 0.05p2+ 0.10p3= p2

    0.10p2+ 0.40p3= p3 (como existen 4 filas, se puede eliminar 1 de las tres primeras)p1 + p2+ p3= 1

    De donde p1= 2/31 = 0.0645; p2= 1/93 = 0.01075; p3 = 86/93 = 0.924716. Problema de CafLos consumidores de caf en el departamento de Pucallpa usan tres marcas A, B, C. En marzo de 2014 se hizo unaencuesta en lo que entrevist a las 8450 personas que compran caf y los resultados fueron:

    Compra actual Compra en el siguiente mesMarca A Marca B Marca C Totales

    Marca A = 1690 507 845 338 1690Marca B = 3380 676 2028 676 3380Marca C = 3380 845 845 1690 3380Totales 2028 3718 2704 8450

    a) Si las compras se hacen mensualmente, cul ser la distribucin del mercado de caf en Pucallpa en el mes dejunio?b) A la larga, cmo se distribuirn los clientes de caf?c) En junio, cual es la proporcin de clientes leales a sus marcas de caf?

    Solucin:a) A la vista de las frecuencias anteriores, las probabilidades de transicin, conservando el mismo orden que la tabla(A, B, C) es:

    P =

    De marzo a Junio hay 4 etapas por lo que nos piden las probabilidades de transicin al cabo de 4 meses, las quevendrn dada por los coeficientes de P4

    P2=

    P4=

    =

  • 8/10/2019 Clase6_IOCadenasMarkov

    21/36

    Procesos de decisin markoviana 21 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIb) A la larga se trata de la situacin estable:

    [p1 p2 p3]

    = [p1 p2 p3]; p1+ p2+ p3= 1

    0.30p1+ 0.20p2+ 0.25p3 = p10.50p1+ 0.60p2+ 0.25p3= p20.20p1+ 0.20p2+ 0.50p3= p3 (como existen 4 filas, se puede eliminar 1 de las tres primeras)p1+ p2+ p3= 1

    Resolviendo se obtiene: p1= 5/21 = 0.2381; p2= 10/21 = 0.4762; p3= 2/7 = 0.2857

    c) En Marzo la proporcin de clientes de A es: 2028/8450 = 0.24; para B es 3718/8450 = 0.44 y para C es 2704/8450= 0.32.En el mes de junio la proporcin es:

    [0.24 0.44 0.32]

    = [0.24 0.464 0.296]

    Es decir 24% para A, 46.4% para B y 29.6% para C.

    17. Problema de Agente ComercialUn agente comercial realiza su trabajo en tres ciudades A, B y C. Para evitardesplazamientos innecesarios est todo el da en la misma ciudad y all pernocta, desplazndose a otra ciudad al dasiguiente, si no tiene suficiente trabajo. Despues de estar trabajando un da en C, la probabilidad de tener que seguirtrabajando en ella al da siguiente es 0,4, la de tener que viajar a B es 0,4 y la de tener que ier a A es 0,2. Si elviajante duerme un da en B, con probabilidad de un 20% tendr que seguir trabajando en la misma ciudad al dasiguiente, en el 60% de los casos viajar a C, mientras que ir a A con probabilidad 0,2. Por ltimo si el agentecomercial trabaja todo un da en A,

    permanecer en esa misma ciudad, al da siguiente, con una probabilidad 0,1, ir a B con una probabilidad de 0,3 y a

    C con una probabilidad de 0,6.Si hoy el viajante est en C,

    a) cul es la probabilidad de que tambin tenga que trabajar en C al cabo de cuatro das?b) Cuales son los porcentajes de das en los que el agente comercial est en cada una de las tres ciudades?Solucin:La matriz de transicin P es la siguiente para el orden A,B,C

    P = ; El apartado a) consiste en averiguar el termino , es decir el trmino que

    ocupa la fila 3 y la columna 3 de la matriz P4 . lo cual se obtiene con la fila 3 y la columna 3 de P 2 , cuyosvalores son:

    P2 = , por tanto el termino buscado es: 0.18*0.48+0.30*0.48+0.52*0.52= 0.5008c) Nos piden las probabilidades estacionarias. Para ello hay que resolver el siguiente sistema:

    [p1 p2 p3] = [p1 p2 p3] ; p1+ p2+ p3 = 1

    Desarrollando resulta el sistema de ecuaciones lineales:

    0.10p1+ 0.20p2+ 0.20p3= p10.30p1+ 0.20p2+ 0.40p3= p20.60p1+ 0.60p2+ 0.40p3= p3

    p1+ p2+ p3= 1

  • 8/10/2019 Clase6_IOCadenasMarkov

    22/36

    Procesos de decisin markoviana 22 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIResolviendo se tiene: p1=2/11=0.1818 p2= 7/22=0.3181 p3= 11/22 = 0.50. En porcentajes seran el 18,18% parala ciudad A, el 31,81 para B y el 50% para la ciudad C.

    Las probabilidades de estado estable y el tiempo de recurrencia medio para las cadenas de Markov ergdicas eirreductibles tienen una relacion recproca.

    = j = 1, 2, , m18. Problema del PsicologoEl Psiclogo del departamento de investigacion de operaciones de una compaa observa durante cierto tiempo elestado de nimo del presidente de la misma. Toda vez que le interesa el modelado matematico, el psiclogo clasificael estado de nimo en tres categoras:

    0: Bueno(animado)1: Adecuado (irregular)2: Pobre (trizte y deprimido)

    El psiclogo observa que los cambios de animo ocurren slo durante la noche: por tanto, los datos permiten laestimacin de las siguientes probabilidades de transicion:

    P = Las ecuaciones0.60p0+ 0.30p1+ 0p2 = p00.20p0+ 0.40p1+ 0.30p2 = p10.20p0+ 0.30p1+ 0.70p2 = p2p0+p1+ p2= 1

    Se resulven de manera simultnea para las probabilidades de estado establep0= 3/13p1= 4/13p2= 6/13

    Dado que el presidente est de mal humor, esto es, , en el estado 2, el tiempo medio requerido para regresar a eseestado es ,donde= = dias

  • 8/10/2019 Clase6_IOCadenasMarkov

    23/36

    Procesos de decisin markoviana 23 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Ejemplo 19: Problema de Inventarios

  • 8/10/2019 Clase6_IOCadenasMarkov

    24/36

    Procesos de decisin markoviana 24 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

  • 8/10/2019 Clase6_IOCadenasMarkov

    25/36

    Procesos de decisin markoviana 25 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

  • 8/10/2019 Clase6_IOCadenasMarkov

    26/36

    Procesos de decisin markoviana 26 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    de regreso al mismo estado, cuando la tienda de cmaras transita del final de una semana al final de la siguiente. Elnmero junto a cada flecha proporciona la probabilidad de que ocurra esa transicin en particular cuando la tienda decmaras tiene el estado que est en la base de la flecha.

  • 8/10/2019 Clase6_IOCadenasMarkov

    27/36

    Procesos de decisin markoviana 27 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

  • 8/10/2019 Clase6_IOCadenasMarkov

    28/36

    Procesos de decisin markoviana 28 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

  • 8/10/2019 Clase6_IOCadenasMarkov

    29/36

    Procesos de decisin markoviana 29 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Ejemplo 20: Problema del jardineroCada ao, durante la temporada de siembra de marzo a septiembre, un jardinero realiza una prueba qumica paraverificar la condicin de la tierra. Segn el resultado de la prueba, la productividad en la nueva temporada puede seruno de tres estados: (1) buena, (2) regular y (3) mala. A lo largo de los aos, el jardinero ha observado que lacondicin de la tierra del ao anterior afecta la productividad del ao actual y que la situacin se describe mediante lasiguiente cadena de Markov:

  • 8/10/2019 Clase6_IOCadenasMarkov

    30/36

    Procesos de decisin markoviana 30 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Las probabilidades de transicin muestran que la condicin de la tierra puede o deteriorarse o permanecer como estpero nunca mejorar. Por ejemplo, si la condicin de la t ierra es buena en este ao (estado 1) hay 20% de que nocambie el ao siguiente, 50% de probabilidad de que sea regular (estado 2), y 30% de probabilidad de que sedeteriorar a una condicin mala (estado 3). El jardinero modifica las probabilidades de transicin P utilizando unfertilizante orgnico.En este caso, la matriz de transicin se vuelve:El uso de fertilizante puede conducir a mejorar las condiciones del suelo.

    Probabilidades de Transicin Absolutas y de N Pasos

    La matriz Pnse conoce como la matriz de transicin de n pasos. A partir de estos clculos, podemos ver quePn= Pn-1PYPn= Pn-mPm, stas se conocen como ecuaciones de Chapman-Kolomogorov.

    La siguiente matriz de transicin es aplicable al problema del jardinero con fertilizante (ejemplo 17.1-3):

    La condicin inicial de la tierra es buena, es decir a(0)= (1,0,0). Determine las probabilidades absolutas de los tresestados del sistema despus de 1,8 y 16 temporadas de siembra.

  • 8/10/2019 Clase6_IOCadenasMarkov

    31/36

    Procesos de decisin markoviana 31 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Por lo tanto, las probabilidades absolutas requeridas se calculan como

    Las filas de P8y el vector de probabilidades absolutas a(8)son casi idnticos. El resultado es ms evidente para P16.Ello demuestra que, a medida que la cantidad de transiciones aumenta, las probabilidades absolutas se vuelvenindependientes del a(0)inicial. Las probabilidades resultantes se conocen como probabilidades de estado estable.

    PROBABILIDADES DE ESTADO ESTABLE Y TIEMPOS DE RETORNO MEDIOS DE CADENASERGDICASEn una cadena ergdica, las probabilidades de estado estable se definen como

  • 8/10/2019 Clase6_IOCadenasMarkov

    32/36

    Procesos de decisin markoviana 32 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Para determinar la distribucin de probabilidad de estado estable del problema del jardinero con fertilizante (ejemplo17.1-3), tenemos

    Esto quiere decir que, en promedio, se requerirn aproximadamente 10 temporadas de siembra para que la tierraregrese a un buen estado, 2 temporadas para que regrese al estado regular, y 3 temporadas para que regrese a unestado malo. Estos resultados apuntan hacia un panorama menos promisorio para la condicin de la tierra con el uso

    propuesto de fertilizantes. Un programa ms agresivo debe mejorar el panorama. Por ejemplo, considere la siguientematriz de transicin en la que las probabilidades de trasladarse a un buen estado son ms altas que en la matriz

    previa:

  • 8/10/2019 Clase6_IOCadenasMarkov

    33/36

    Procesos de decisin markoviana 33 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    Modelo de costosConsidere el problema del jardinero con fertilizante (ejemplo 20). El jardn necesita dos sacos de fertilizante si latierra es buena. La cantidad se incrementa en 25% si la tierra es regular, y 60% si la tierra es mala. El costo delfertilizante es de $50 por saco. El jardinero estima un rendimiento anual de $250 si no se utiliza fertilizante, y de$420 si se aplica el fertilizante. Es redituable utilizar fertilizante?Aplicando las probabilidades de estado constante del ejemplo 17.4-1, obtenemos

    Incremento diferencial del valor anual del rendimiento = $420 - $250 = $170. Se recomienda el uso del fertilizante.

    Ejercicios Propuestos1. Se ha comprobado que la probabilidad de que un determinado partido poltico gane unas elecciones depende de

    si las gan en los dos comicios inmediatamente anteriores de la siguiente forma: si gan las dos eleccionesanteriores, entonces la probabilidad de que vuelva a ganar es el 95 %. Si gan las ltimas elecciones pero no las

    penltimas, entonces la probabilidad de que gane es del 70%. Si gan las penltimas pero perdi en las ltimas,entonces la probabilidad de que pierda es del 60%. Finalmente, si perdi en las dos elecciones anteriores,entonces perder con una probabilidad del 80%.

    a. Use la informacin anterior para establecer un modelo basado en cadenas de Markov en la que los estadossean Xi = (resultado penltimo, resultado ltimo). Determinar las clases de equivalencia de la cadena y sus

    periodicidades.b. Si el resultado de las elecciones actuales y de las anteriores ha sido desfavorable, cual es la probabilidad de

    que dentro de dos comicios gane las elecciones.c. Si el resultado de las elecciones actuales y de las anteriores ha sido desfavorable, cuantos comicios pasaran

    en promedio hasta que gane por primera vez las elecciones?, y si el resultado de las anteriores elecciones fuefavorable pero ha perdido las actuales?

    d. Calcular la fraccin del tiempo que este partido est en el poder.

    2. Una empresa informtica tiene un conjunto de discos en los que realiza peridicamente el back-up de sussistemas. Al final de cada mes cada disco es chequeado para detectar posible presencia de virus o pistas en malestado y proceder, en su caso, a su sustitucin por otro nuevo. La empresa tiene constatado que el 10% de los

    discos que tienen un mes deben de ser sustituidos, el 25% de los que tienen dos meses deben de sustituirse ytambin se deben de reponer el 40% de los que tienen tres meses. Como medida de seguridad, todos los discosque tienen cuatro meses se sustituyen sistemticamente sea cual sea su estado. Estos porcentajes se hanmantenido bsicamente durante los ltimos aos.a. Comprobar que el proceso que describe la antigedad de un disco en esa empresa puede asimilarse a una

    cadena de Markov de parmetro discreto.b. Calcular la matriz de transicin de dicha cadena.c. Suponiendo que en el instante inicial todos los discos son nuevos, calcular p(1). Si la empresa tiene un total

    de 500 discos, cuntos estimas que deber de comprar nuevos al final del segundo mes?.d. Comprobar que la cadena es irreducible, aperidica y recurrente. (Se puede estudiar de manera intuitiva,

    viendo qu representa cada estado en el problema, o mediante las definiciones estudiadas utilizando lassucesivas potencias de la matriz P. Si se opta por este segundo camino, las potencias pueden obtenersemediante Derive)

    e. Estudiar a partir de qu etapa coinciden las probabilidades de estado en dos decimales para etapasconsecutivas. A partir de ese momento, podra decirse que se ha alcanzado el estado estacionario?

  • 8/10/2019 Clase6_IOCadenasMarkov

    34/36

    Procesos de decisin markoviana 34 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa IIf. Plantear el sistema de ecuaciones lineales con el que se puede obtener el vector de probabilidades de

    equilibrio (distribucin estacionaria). Interpretar los valores del tiempo medio de recurrencia que aparecenjunto con las probabilidades de equilibrio.

    g. Si la empresa maneja 500 discos y el precio de un disco es de 0.5 euros qu presupuesto mensual (una vezalcanzado el estado estacionario) debe preverse para el reemplazamiento de los discos?.

    3. Un sistema consiste en N CPUs independientes que pueden acceder mediante un interface a M mdulos dememoria. Se asume que los procesadores y los mdulos estn sincronizados y que la forma de funcionar es lasiguiente:Cada procesador cuyo requerimiento a la memoria se satisfizo en el ciclo anterior, realiza en cada ciclo un nuevorequerimiento de memoria; este requerimiento se destina con igual probabilidad a uno de los M mdulos. Si surequerimiento est pendiente de ser satisfecho, el procesador debe de esperar al menos un ciclo ms hasta poderhacer un nuevo requerimiento, permaneciendo inactivo durante ese ciclo a causa de la interferencia con otros

    procesadores en la demanda de memoria.Al inicio de cada ciclo, un mdulo de memoria M puede recibir varias demandas de acceso (como mximo unade cada uno de los procesadores activos, en el caso de que todas se dirigieran a dicho mdulo) satisfaciendo endicho ciclo una sola demanda y quedando las dems pendientes en cola.De acuerdo con lo anterior, al inicio de cada ciclo hay un total de N demandas (una por procesador) repartidasentre los M mdulos. Las diferentes formas en las que pueden estar repartidas constituyen los k estados del

    sistema, Ek. Por ejemplo, en el caso N = 2 y M = 2 habra tres estados posibles: (2, 0) , (1, 1) y (0, 2) ; en el casode N = 2 y M = 3, habra seis estados que seran (2, 0, 0) , (1, 1, 0) , (1,0, 1) , (0, 1, 1) , (0,2,0) y (0,0,2).a. Plantear para el caso N = 2 y M = 2 la matriz de transicin de la cadena de Markov asociada al sistema

    estudiado. Cules son las probabilidades lmite del sistema?. Cul ser, en promedio, el nmero deprocesadores activos en cualquier ciclo? (A este valor promedio se le denomina EP o efective processorpower")

    b. Estudiar cuanto mejorara al EP del sistema anterior si se aadiera un procesador adicional (para ello, hayque definir los estados del sistema para N = 3 y M = 2, obtener la matriz de transicin, las probabilidadeslmites y calcular el EP de esta nueva situacin).

    c. Calcular P(0), P(1) y P(2) para el caso b). A partir de qu ciclo coinciden los dos primeros decimales de lasprobabilidades de estado con las probabilidades lmite?.

    4. Un jugador lleva 100 euros para jugar a la ruleta. En cada partida apuesta 20 euros, perdindolos con probabilidad19/37( = 0.5135) y ganando otros 20 con probabilidad 18/37( = 0.4865). Deja de jugar cuando se arruine o cuandotenga 240 euros. Se quiere calcular la probabilidad de que el jugador se arruine. Para ello:

    a. Estudiar el proceso estocstico X(n) = Dinero que tiene el jugador despus de la jugada n-sima.Definir los 13 estados del proceso.

    b. Ver si la cadena es irreducible, aperidica y si los estados son recurrentes.c. Calcular las probabilidades de estado despus de 100, 500 y 5000 jugadas Cul es la probabilidad de

    que el jugador se arruine?d. Calcular la misma probabilidad si el jugador comienza el juego con 200 euros.e. A la vista de los resultados obtenidos en los apartados anteriores, existe distribucin lmite del

    proceso?

    5. La cervecera ms importante de la costa este (con etiqueta A) ha contratado a un analista de IO para analizar suposicin en el mercado. En especial, la empresa est preocupada por las actividades de su mayor competidor(con etiqueta B). El analista piensa que el cambio de marca se puede modelar como una cadena de Markov queincluya tres estados: Los estados A y B representan a los clientes que beben cerveza que producen lasmencionadas cerveceras y el estado C representa todas las dems marcas. Los datos se toman cada mes y elanalista construye la siguiente matriz de transicin (de un paso) con datos histricos.

    A B C

    A 0.70 0.20 0.10

    B 0.20 0.75 0.05

    C 0.10 0.10 0.80

    Cules son los porcentajes de mercado en el estado estable de las dos cerveceras grandes?Solucin:(usar algn software, para obtener la matriz estable)

  • 8/10/2019 Clase6_IOCadenasMarkov

    35/36

    Procesos de decisin markoviana 35 Docente: Mg. Ing. J. Paredes C.

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II

    P21=

    6. Dada la matriz de transicin encuentre la probabilidad de que el sistema, iniciando en el estado 1,estar a) En el estado 1 despus de 2 ensayos; b) en el estado 2 despus de 3 ensayos.

    7. La matriz de transicin de cierto proceso de Markov es a. Si el sistema se encuentra en un principio en el estado 1, determine la matriz de estado despus de dos

    etapas del proceso.b. Si el sistema se encuentra inicialmente en el estado 2, encuentre la matriz de estado despus de 2 etapas.c. Determine la matriz estacionaria.

    8. (Partidos polticos) Las probabilidades de que cierto pas sea gobernado por uno de tres partidos polticos X, Y Z despus de la prxima eleccin estn dadas por la matriz de transicin

    P =

    a. Cul es la probabilidad de que el partido Z gane la prxima eleccin si el partido X est ahora en el poder?b. Cul es la probabilidad de que el partido X est en el poder despus de dos elecciones si se supone que el

    partido Y se encuentra en el poder ahora?c. Si el partido Z se encuentra en el poder, Cul es la probabilidad de que estar ah despus de dos

    elecciones?

    d. Determine la matriz estacionaria Cmo puede interpretarse esta matriz?

    9. (Fluctuaciones en la bolsa de valores) El valor de cierta accin puede ir al alza, a la bajao permanecersincambioen cualquier da. La probabilidad de que la accin vaya al alza (estado 1), a la baja (estado 2) o

    permanezca estable (estado 3) al da siguiente estn dadas en la matriz de transicin:El cambio maana

    El cambio hoy

    a. Cul es la probabilidad de que la accin est a la baja despus de dos das si hoy se encuentra al alza?

    b. Cul es la matriz estacionaria de este proceso de Markov?

    10. La probabilidad de que una persona de baja estatura tenga un hijo tambin de baja estatura es 0.75, mientras quela probabilidad de que un padre alto tenga un hijo espigado es 0.60. (Se ignora la posibilidad de concebir un hijode mediana estatura)a. Cul es la probabilidad de que un hombre alto tenga un nieto de baja estatura?

    b. Cul es la probabilidad de que un hombre de baja estatura tenga un nieto alto?

    11. (Participacin en el mercado) Hoy da, tres empresas procesadoras de productos X, Y y Z controlan el 50, 30 y20% del mercado del caf, respectivamente. Al mismo tiempo las tres empresas presentan marcas de caf. Conla introduccin de estas nuevas marcas en un ao ocurre lo siguiente:a. X retiene al 60% de sus consumidores y cede el 20% a Y otro 20% con Z.

    b. Y conserva el 50% de sus consumidores y pierde el 30% con X y un 20% con Z.c. Z retiene el 70% de sus consumidores, cede el 10% a X y el 20% a Y.Suponiendo que esta tendencia continua, que proporcin del mercado tendr cada empresa al trmino de dos

    aos? Qu porcin del mercado tendr cada empresa a largo plazo?

    A B C

    A 0.346 0.385 0.269

    B 0.346 0.385 0.269

    C 0.346 0.385 0.269

  • 8/10/2019 Clase6_IOCadenasMarkov

    36/36

    UNIVERSIDAD SAN PEDROEscuela de Ingeniera Industrial

    Investigacin Operativa II12. (Agricultura) Las granjas de cierta regin pueden clasificarse en tres tipos: agrcolas, pecuarias o mixtas.

    Actualmente 30% son agrcolas, 40% pecuarias y 30% mixtas. La matriz de transicin de un ao al siguiente es:

    Encuentre los porcentajes de los tres tipos de granjas:a. El ao prximo

    b. El ao subsiguientec. A largo plazo

    13. (Estudio de opinin) En una encuesta de opinin acerca de un programa de TV, 60% de los entrevistados declarque les gustaba el programa, mientras 40% afirm lo contrario. El mismo grupo fue entrevistado 1 semanadespus, y entonces 65% dijo que les gustaba el programa; pero 35% que no. Nuevamente, una semana mstarde 68% inform que les gustaba el programa. Calcule la matriz de transicin que representa el cambio deopinin. Si se entrevista repetidamente al grupo sobre el mismo programa, Cul sera el porcentaje que expresesu preferencia por l?

    14. Cada familia limea se clasifica segn donde vive como urbana, rural o suburbana: Durante un ao especifico,15% de las familias urbanas se mudaron a una ubicacin suburbana, y 5% se mudaron a un rea rural; tambin

    6% de las familias suburbanas se trasladaron a un rea urbana y 4% se pasaron a una ubicacin rural; por ltimo,4% de las familias rurales se fueron a un rea urbana y 6% se cambiaron a un lugar suburbano.a. Si una familia ahora vive en un lugar urbano, Cul es la probabilidad de que viva en un rea urbana dos

    aos a partir de ahora? Un rea suburbana? Un rea rural?b. Suponga que en el presente, 40% de las familias viven en un rea urbana, 35% viven en un rea suburbana

    y 25% viven en un rea rural. Dos aos a partir de ahora, Qu porcentaje de familias limeas vivirn enun rea urbana?

    c. Qu problemas podran ocurrir si este modelo se utiliza para predecir la distribucin poblacional futura deLima?

    15. En un valle se han visto dos clases de ardillas, grises y negra. Al comienzo de cada ao se determina cul de lassiguientes afirmaciones es cierta:- Slo hay ardillas grises en el valle- Slo hay ardillas negras en el valle

    - Hay ardillas grises y negras en el valle- No hay ardillas en el valleAl paso de muchos aos, se ha estimado la siguiente matriz de transicin:

    [

    ]

    a. Durante qu fraccin de aos las ardillas grises estarn viviendo en el valle?b. Durante que fraccin de aos las ardillas negras estarn viviendo en el valle?

    Gris Negra Ambas Ninguna

    Gris

    Negra

    Ambas

    Ninguna