cadenas de markov-1

8
1 Métodos Estadísticos en Ciencias de la Vida CADENAS DE MARKOV Introducción Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado en cualquier etapa contiene algún elemento que depende del azar se denomina proceso aleatorio o proceso estocástico. Por ejemplo, la sucesión podría ser las condiciones del tiempo en Paraná en una serie de días consecutivos: el tiempo cambia día a día de una manera que en apariencia es algo aleatoria. O bien, la sucesión podría consistir en los precios de las acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de aleatoriedad. Un ejemplo simple de un proceso estocástico es una sucesión de ensayos de Bernoulli, por ejemplo, una sucesión de lanzamientos de una moneda. En este caso, el resultado en cualquier etapa es independiente de todos los resultados previos (esta condición de independencia es parte de la definición de los ensayos de Bernoulli). Sin embargo, en la mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en un día determinado no es aleatorio por completo sino que es afectado en cierto grado por el tiempo de días previos. El precio de una acción al cierre de cualquier día depende en cierta medida del comportamiento de la bolsa en días previos. El caso más simple de un proceso estocástico en que los resultados dependen de otros, ocurre cuando el resultado en cada etapa sólo depende del resultado de la etapa anterior y no de cualquiera de los resultados previos. Tal proceso se denomina proceso de Markov o cadena de Markov (una cadena de eventos, cada evento ligado al precedente) Estas cadenas reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922). Como mencionamos antes, estas cadenas tiene memoria, recuerdan el último evento y eso condiciona las posibilidades de los eventos futuros. Esto justamente las distingue de una serie de eventos independientes como el hecho de tirar una moneda. Este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. Se utilizan, por ejemplo, para analizar patrones de compra de deudores morosos, para planear necesidades de personal, para analizar el reemplazo de un equipo, entre otros. Definición Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo número finito de resultados posibles y en donde la probabilidad de cada resultado para un ensayo dado depende sólo del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo. Propiedad de Markov: Dada una secuencia de variables aleatorias ...... , , , 3 2 1 X X X , tales que el valor de n X es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de 1 + n X en estados pasados es una función de n X por sí sola, entonces: ) x /X x P(X ) x X , x ,....X x X , x /X x P(X n n 1 n 1 n 1 1 2 2 1 n 1 n n n 1 n 1 n = = = = = = = = + + - - + + Donde i x es el estado del proceso en el instante i.

Upload: julio-cesar-alcantara-delgado

Post on 15-Feb-2015

398 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Cadenas de Markov-1

1

Métodos Estadísticos en Ciencias de la Vida

CADENAS DE MARKOV

Introducción Un proceso o sucesión de eventos que se desarrolla en el tiempo en el cual el resultado

en cualquier etapa contiene algún elemento que depende del azar se denomina proceso

aleatorio o proceso estocástico. Por ejemplo, la sucesión podría ser las condiciones del

tiempo en Paraná en una serie de días consecutivos: el tiempo cambia día a día de una

manera que en apariencia es algo aleatoria. O bien, la sucesión podría consistir en los

precios de las acciones que cotizan en la bolsa en donde otra vez interviene cierto grado

de aleatoriedad.

Un ejemplo simple de un proceso estocástico es una sucesión de ensayos de Bernoulli,

por ejemplo, una sucesión de lanzamientos de una moneda. En este caso, el resultado en

cualquier etapa es independiente de todos los resultados previos (esta condición de

independencia es parte de la definición de los ensayos de Bernoulli). Sin embargo, en la

mayoría de los procesos estocásticos, cada resultado depende de lo que sucedió en

etapas anteriores del proceso. Por ejemplo, el tiempo en un día determinado no es

aleatorio por completo sino que es afectado en cierto grado por el tiempo de días

previos. El precio de una acción al cierre de cualquier día depende en cierta medida del

comportamiento de la bolsa en días previos.

El caso más simple de un proceso estocástico en que los resultados dependen de otros,

ocurre cuando el resultado en cada etapa sólo depende del resultado de la etapa anterior

y no de cualquiera de los resultados previos. Tal proceso se denomina proceso de

Markov o cadena de Markov (una cadena de eventos, cada evento ligado al precedente)

Estas cadenas reciben su nombre del matemático ruso Andrei Andreevitch Markov

(1856-1922). Como mencionamos antes, estas cadenas tiene memoria, recuerdan el

último evento y eso condiciona las posibilidades de los eventos futuros. Esto justamente

las distingue de una serie de eventos independientes como el hecho de tirar una moneda.

Este tipo de proceso presenta una forma de dependencia simple, pero muy útil en

muchos modelos, entre las variables aleatorias que forman un proceso estocástico. Se

utilizan, por ejemplo, para analizar patrones de compra de deudores morosos, para

planear necesidades de personal, para analizar el reemplazo de un equipo, entre otros.

Definición Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual

cada ensayo tiene el mismo número finito de resultados posibles y en donde la

probabilidad de cada resultado para un ensayo dado depende sólo del resultado del

ensayo inmediatamente precedente y no de cualquier resultado previo.

Propiedad de Markov: Dada una secuencia de variables aleatorias ......,,, 321 XXX ,

tales que el valor de nX es el estado del proceso en el tiempo n. Si la distribución de

probabilidad condicional de 1+nX en estados pasados es una función de nX por sí sola,

entonces:

)x/XxP(X

)xX,x,....XxX,x/XxP(X

nn1n1n

11221n1nnn1n1n

==

======

++

−−++

Donde ix es el estado del proceso en el instante i.

Page 2: Cadenas de Markov-1

2

Métodos Estadísticos en Ciencias de la Vida

Esta identidad es la denominada propiedad de Markov: El estado en t + 1 sólo depende

del estado en t y no de la evolución anterior del sistema

Matriz de transición Al trabajar con cadenas de Markov, a menudo es útil pensar la sucesión de ensayos

como experimentos efectuados en cierto sistema físico, cada resultado dejando a este

sistema en cierto estado.

Por ejemplo, consideremos una sucesión de elecciones políticas en cierto país: el

sistema podría tomarse como el país mismo y cada elección lo dejaría en cierto estado,

es decir en el control del partido ganador. Si sólo hay dos partidos políticos fuertes,

llamados A y B, los que por lo regular controlan el gobierno, entonces podemos decir

que el país se encuentra en el estado A o B si el partido A o B ganara la elección. Cada

ensayo (o sea cada elección), coloca al país en uno de los dos estados A o B. Una

sucesión de 10 elecciones podría producir resultados tales como los siguientes:

A, B, A, A, B, B, B, A, B, B

La primera elección en la sucesión deja en el poder al partido A, la segunda fue ganada

por el partido B, y así sucesivamente, hasta que la décima elección la gane el partido B.

Supongamos que las probabilidades de que el partido A o B ganen la próxima elección

son determinadas por completo por el partido que está en el poder ahora. Por ejemplo

podríamos tener las probabilidades siguientes:

• Si el partido A está en el poder, existe una probabilidad de ¼ que el partido A

ganará la próxima elección y una probabilidad de ¾ de que el partido B gane la

elección siguiente.

• Si el partido B está en el poder, hay una probabilidad de 1/3 de que el partido A

gane la elección siguiente y una probabilidad de 2/3 que el partido B permanezca en

el poder.

En tal caso, la sucesión de elecciones forman una cadena de Markov, dado que las

probabilidades de los dos resultados de cada elección están determinadas por el

resultado de la elección precedente.

Lo descrito anteriormente puede representarse gráficamente usando la siguiente red:

La información probabilística que se acaba de dar se puede representar de manera

conveniente por la siguiente matriz:

3/23/1

4/34/1

A B

1/4

3/4 2/3

1/3

Resultado de la próxima elección

A B

Resultado de la A

última elección B

Los círculos A y B se denominan

nodos y representan los estados del

proceso, las flechas que van de un

nodo a si mismo o al otro son los

arcos y representan la probabilidad

de cambiar de un estado al otro

Page 3: Cadenas de Markov-1

3

Métodos Estadísticos en Ciencias de la Vida

Esta matriz se denomina matriz de transición. Los elementos de la matriz de transición

representan las probabilidades de que en el próximo ensayo el estado del sistema del

partido indicado a la izquierda de la matriz cambie al estado del partido indicado arriba

de la matriz.

Definición: Consideremos un proceso de Markov en que el sistema posee n estados

posibles, dados por los números 1, 2, 3, …., n. Denotemos ijp a la probabilidad de que

el sistema pase al estado j después de cualquier ensayo en donde su estado era i antes

del ensayo. Los números ijp se denominan probabilidades de transición y la matriz nxn

( )ijpP = se conoce como matriz de transición del sistema

Observaciones:

1) La suma 1.....21 =+++ inii ppp . Esta suma representa la probabilidad de que el

sistema pase a uno de los estados 1, 2, …., n dado que empieza en el estado i. Ya que

el sistema ha de estar en uno de estos n estados, la suma de probabilidades debe ser

igual a 1. Esto significa que los elementos en cualquier renglón de la matriz de

transición deben sumar 1.

2) Cada elemento 0≥ijp

Ejemplo: una cadena de Markov como modelo para el ADN.

Es improbable que una secuencia aleatoria de A,C,G y T sea un buen modelo para el

patrón de nucleótidos en una secuencia génica.

Una cadena de Markov con {A, T, G y C} podría ser una mejor aproximación a la

realidad: las probabilidades para el nucleótido en la posición j+1 dependen del

nucleótido en la posición j. (Sin embargo, en la realidad las dependencias son más

complejas)

• Si el espacio de estados es S = {A, C, G, T}.

• La matriz de transición P es de 4 x 4:

Aquí

Ejercicios

1. Dada la matriz de transición:

=

1,04,05,0

4,02,04,0

2,05,03,0

P

¿Cuál es la probabilidad de que el próximo ensayo del sistema cambie: a) del

estado 2 al 1?, b) del estado 1 al 3?

Page 4: Cadenas de Markov-1

4

Métodos Estadísticos en Ciencias de la Vida

2. En cierta nación hay tres partidos políticos principales, el liberal (L), el

conservador (C) y el demócrata (D). La matriz de transición siguiente da las

probabilidades de que la nación sea controlada por cada uno de los tres partidos

políticos después de una elección, conocidas las diversas posibilidades del

resultado de la elección anterior:

3,04,03,0

2,03,05,0

1,02,07,0

DCL

Suponiendo que el partido liberal tiene el control ahora, use un diagrama de

árbol para determinar la probabilidad de que el partido conservador esté en el

poder después de las dos próximas elecciones.

3. El valor de una acción fluctúa día con día. Cuando la bolsa de valores se

encuentra estable, un incremento en un día tiende a anteceder una baja el día

siguiente, y una baja por lo regular es seguida por un alza. Podemos modelar

estos cambios en el valor mediante un proceso de Markov con dos estados, el

primer estado consistente en que el valor se incrementa un dia dado, el segundo

estado definido por la baja. (la posibilidad de que el valor permanezca sin

cambio se ignora) suponga que la matriz de transición es la siguiente:

2080

9010

,,

,,

Si el valor de la acción bajó hoy, calcule la probabilidad de que se incremente 3

días después a partir de ahora.

En el ejemplo que acabamos de ver, calculamos la probabilidad de que la acción vaya al

alza al tercer día. Suponga que deseamos calcular la probabilidad de que la acción vaya

al alza o la baja al décimo día. En este caso, el uso de un diagrama sería muy

complicado. En una situación como esa, el álgebra de matrices evita dibujar un

diagrama muy grande.

Consideremos un sistema de n estados posibles, de modo que cada ensayo tiene n

resultado posibles. En cualquier etapa en el futuro no podemos decir en qué estado se

encontrará el sistema pero podríamos estar en posición de dar las probabilidades de que

se encuentre en cada uno de los estados 1, 2, ….,n.

En general, si nppp .....,,, 21 son las probabilidades de que el sistema se encuentre en

los estados 1, 2, ….., n, respectivamente, entonces la matriz fila 1xn

( )nppp ....21 se conoce como matriz de estado inicial o vector de estado inicial

del sistema. Obviamente que la suma de esa fila es 1. Denotaremos a la matriz de estado

inicial con oA y a la matriz de estado después de k ensayos o etapas por kA

L

C

D

Cambio de mañana

A B

Cambio de hoy A

B

Page 5: Cadenas de Markov-1

5

Métodos Estadísticos en Ciencias de la Vida

En el ejemplo que vimos de las acciones, comenzamos con un estado inicial de baja, de

modo que la matriz de estado inicial es:

( )10=oA

En la matriz de transición vemos que después de un día, la acción está en alza con

probabilidad de 0,8 y en baja con probabilidad de 0,2, así, la matriz de estado 1A

después de un día está dada por.

( )2,08,01 =A

La probabilidad de que la acción vaya al alza o a la baja después de dos días es:

76,0)2,0)(2,0()9,0)(8,0(

24,0)8,0)(2,0()1,0)(8,0(

2

1

=+=

=+=

p

p

Así que la matriz de estado 2A después de dos días está dada por:

( )76,024,02 =A

De esta forma podemos deducir la matriz de estado en cualquier etapa si se conoce la

matriz de estado del ensayo previo. Lo generalizamos de la siguiente forma:

Teorema 1: Si P denota la matriz de transición de una cadena de Markov y kA es la

matriz de estado después de k ensayos, entonces la matriz de estado 1+kA después del

ensayo siguiente está dada por:

PAA kk .1 =+

Observemos lo que ocurre si hallamos 2P en el ejemplo anterior.

Luego de hacer los cálculos, resulta:

=

76,024,0

27,073,02

P

Es de notar que todos los valores son no negativos, y que la suma por fila es 1, de donde 2P es también una matriz de transición, pero ahora es la matriz de transición que se

obtiene luego de dos pasos. La última fila corresponde a la matriz de estado

( )76,024,02 =A que habíamos obtenido.

¿Cuál es la ventaja de trabajar con 2P ? ¿Qué significado tiene la fila ( )27,073,0 ?

Podemos extender este argumento a cualquier número de días en el futuro en que

queremos hacer la predicción, vemos que 2PPxP = corresponde a las probabilidades de

transición en dos pasos, entonces mPPP ....,,, 43 corresponden a las probabilidades de

transición en 3, 4, …., m pasos respectivamente. La matriz mP se conoce como la

matriz de transición en m pasos de la cadena de Markov.

Page 6: Cadenas de Markov-1

6

Métodos Estadísticos en Ciencias de la Vida

Ejemplo: La variación del tiempo de un día a otro se supone que forma una cadena de

Markov con la matriz de transición siguiente:

5,04,01,0

3,05,02,0

2,02,06,0

LLNS

Teorema 2: Una matriz de transición P se dice que es regular si para algún entero

positivo k, la matriz kP no tiene elementos iguales a cero. Si P es una matriz de

transición regular, entonces sin importar la matriz de estado inicial, las matrices de

estado sucesivas se aproximan a alguna matriz de estado fija B en donde B.P = B. La

matriz B se denomina matriz estacionaria del sistema

Ejemplo: Si la matriz de transición regular es:

=

4,06,0

2,08,0P y ( )21 ppB = es la matriz estacionaria que se requiere.

Por definición, la suma de las probabilidades 121 =+ pp y además B.P = B, o sea:

( ) ( )21214,06,0

2,08,0pppp =

De allí, resolviendo el sistema que queda planteado podemos calcular la matriz

estacionaria buscada.

Aplicaciones en Bioinformática

• Búsqueda de genes

• Mapeo de vinculación genética

• Análisis filogenético

• Predicción de estructura secundaria de proteínas

• Búsqueda de sitios conservados vs sitios variables

• Predicción de regiones que codifican proteínas dentro de genomas

• Modelado de familias de secuencias de proteína o ADN relacionado

• Predicción de elementos de estructura secundaria en secuencias primarias de

proteína

Donde los estados posibles son S (Soleado), N

(Nublado) y LL (Lluvioso)

Dado que hoy (domingo) está nublado, ¿cuál es la

probabilidad de que el miércoles sea soleado?

S

N

LL

Page 7: Cadenas de Markov-1

7

Métodos Estadísticos en Ciencias de la Vida

Ejercicios

1. Suponga que la matriz de transición de cierta cadena de Markov está dada por:

=

4/34/1

3/13/2P

Donde la primera fila y columna indica el estado 1 y la segunda fila y columna el

estado 2.

a) ¿qué representa el elemento ¼ de la matriz?

b) Suponiendo que el sistema se encuentra en un principio en el estado 1, con un

diagrama de árbol encuentre la matriz de estado después de dos ensayos.

c) Ahora mediante el teorema 1 encuentre la respuesta a la pregunta anterior

d) ¿Cuál es la matriz estacionaria del sistema?

2. La matriz de transición de cierto proceso de Markov es:

5,01,04,0

3,06,01,0

2,05,03,0

a) Si el sistema se encuentra en un principio en el estado 1, determine la matriz

estado después de dos etapas del proceso

b) Si el sistema se encuentra inicialmente en el estado 2, encuentre la matriz de

estado después de dos etapas

c) Determine la matriz estacionaria

3. Las probabilidades de que cierto país sea gobernado por uno de tres partidos

políticos X, y o Z después de la próxima elección están dadas por la matriz de

transición:

5/25/25/1

04/34/1

6/13/12/1

ZYX

a) ¿Cuál es la probabilidad de que el partido Z gane la próxima elección si el

partido X está ahora en el poder?

b) ¿Cuál es la probabilidad de que el partido X esté en el poder después de dos

elecciones si se supone que el partido Y se encuentra en el poder ahora?

c) Si el partido Z se encuentra en el poder, ¿cuál es la probabilidad de que estará

ahí después de dos elecciones?

4. La probabilidad de que una persona de baja estatura tenga un hijo también de baja

estatura es de 0,75, mientras que la probabilidad de que un padre alto tenga un hijo

algo es de 0,60 (se ignora la posibilidad de concebir un hijo de mediana estatura)

a) ¿cuál es la probabilidad de que un hombre alto tenga un nieto de baja estatura?

b) ¿cuál es la probabilidad de que un hombre de baja estatura tenga un nieto alto?

c) Encuentre la matriz estacionaria del proceso y dé su interpretación

X

Y

Z

Page 8: Cadenas de Markov-1

8

Métodos Estadísticos en Ciencias de la Vida

5. Las granjas de cierta región pueden clasificarse en tres tipos: agrícolas, pecuarias o

mixtas. Actualmente 30% son agrícolas, 40% pecuarias y 30% mixtas. La matriz de

transición de una año al siguiente es:

8,01,01,0

08,02,0

1,01,08,0

MPA

Encuentre los porcentajes de los tres tipos de granjas: a) el año próximo, b) dentro

de 2 años, c) a largo plazo.

6. En cierto país 90% de la energía es generada por petróleo, gas o carbón y 10%

provenía de la energía atómica. Cinco años después los porcentajes eran 80% y 20%

respectivamente, mientras que 5 años más tarde fueron 75% y 25%. Suponiendo que

el proceso es de Markov con

( ) ( )

( ) ( ) P

P

.2,08,025,075,0

.1,09,02,08,0

=

=

Calcule la matriz de transición P de 2 x 2. Encuentre la matriz estacionaria e

interprétela.

7. Suponga que la ocupación de cada persona puede clasificarse como de profesional,

calificado o no calificado. Suponga, además, que siempre es cierto que de los hijos

de profesionales 70% son profesionales, 20% calificados y 10% no calificados, de

los hijos de personas calificadas, 60% son calificados, 20% son profesionales y 20%

son no calificados y de los hijos de personas no calificadas, 20% son profesionales,

30% son calificados y 50% no calificados. Suponga que el número total de personas

con un ocupación es el mismo en cada generación y que en la generación actual,

35% son profesionales, 35% calificados y 30% no calificados. Encuentre la matriz

de transición. Halle la distribución de trabajos después de una generación y después

de dos generaciones.

A

P

M