Cadenas de Markov

K a cualquier sucesin de variables aleatorias x0 x1

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: s cadena de Markov con espacio de estados E = o {Ei : i = 1, 2, . . . , k } y matriz de probabilidades de transici´n o P = ((Pi,j ))i,j =1,2,...,k a cualquier sucesi´n de variables aleatorias X0 , X1 , . . . , Xn , . . . que cumpla o (1.1) para cualquier n y cualquier sucesi´n de estados (Eih )h=0,1,2,... . o Nota. Como consecuencia de (1.1), para cualesquiera ´ ındices i, j y cualquier sucesi´n finita de estados (Eih )h=0,1,2,...,n−2 , o P{Xn = Ej |Xn−1 = Ei , Xh = Eih , h = 0, 1, . . . , n − 2} = Pi,j . En palabras, la probabilidad condicional de que la transici´n n + 1-´sima sea o e e o de Ei a Ej , dado que la trayectoria inicial llega a Ei en la n-´sima transici´n, Enrique M. Caba˜a. n Cap´ ıtulo 1 Cadenas de Markov. 4 es siempre la misma, Pi,j , no importa cu´l haya sido la trayectoria que condujo a al estado Ei al cabo de las primeras n transiciones. Esto significa que el conocimiento de la posici´n del sistema luego de la no ´sima transici´n permite saber la distribuci´n (condicional) de probabilidades e o o de la posici´n luego de la siguiente transici´n, con independecia de la historia o o del proceso, antes de llegar a Ei en el instante n. Notemos que la matriz P = (pi,j )i,j =1,...,k de las probabilidades de transici´n o tiene la propiedad de que los elementos de cada una de sus filas suman 1, dado que si en un instante la cadena se encuentra en cualquier estado Ei , la probabilidad pi,1 + pi,2 + . . . + pi,k de que luego de la pr´xima transici´n est´ o o e en alguno de los estados del sistema (E1 , E2 , . . ., Ek ) es necesariamente igual a 1. El vector π = (π1 , π2 , . . . , πk ) de probabilidades iniciales y la matriz P de las probabilidades de transici´n definen el comportamiento probabil´ o ıstico del sistema. Veremos c´mo, a partir de ellos, pueden calcularse por ejemplo las o (n) probabilidades πj = P{Xn = Ej }. Para uniformizar la notaci´n, al vector π de probabilidades iniciales lo o (0) (0) (0) denotaremos π (0) = (π1 , π2 , . . . .πk ) Para encontrar π (n) conviene proceder de ma...
View Full Document

This note was uploaded on 07/09/2009 for the course FIECS EC314 taught by Professor Ciriloalvarez during the Spring '09 term at Peru State.

Ask a homework question - tutors are online