Cadenas de Markov

Smi hef smh hef como esta desigualdad vale para todo

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: ,i 23 (n) Pi,i n ν =1 = n (ν ) = ν =0 (ν ) (n−ν ) fi,i Pi,i (n−ν ) Si,i Pi,i obtenemos . ν =1 El t´rmino de la derecha de la igualdad precedente tambi´n puede escribirse e e n−1 (ν +1) (n−ν −1) en la forma ν =0 Si,i Pi,i , que coincide con el resultado de reemplazar n por n − 1 en el t´rmino de la izquierda. Como consecuencia, ambos t´rminos e e coinciden tambi´n con el resultado de cambiar n por n − 2, n − 3, . . ., a saber, e n (ν +1) Si,i ν =0 (n−ν ) Pi,i n−1 = (ν +1) Si,i (n−ν −1) Pi,i ν =0 n−2 = (ν +1) Si,i (n−ν −2) Pi,i (1) (0) . . . = Si,i Pi,i = 1. ν =0 Aplicamos la igualdad de los extremos de esta cadena a n = nj − M para nj −M (ν +1) (n −M −ν ) obtener ν =0 Si,i Pi,i j = 1. Para j suficientemente grande, n es (ν +1) (n −M −ν ) menor que nj − M , de modo que n=0 Si,i Pi,i j ≤ 1, y pasando al ν (ν +1) li ≤ 1. La suma que l´ ımite cuando j tiende a infinito encontramos n=0 Si ν multiplica a li tiende a infinito cuando n → ∞, y esto s´lo es compatible con o li = 0. 2 Paso 3. Si mi es finito, mj tambi´n lo es para todo j . e (n1 +n+n2 ) ≥ Pj,i (n1 )Pi,i (n)Pi,j (n2 ), en particular para n1 , n2 Se cumple Pj,j elegidas de modo que Pj,i (n1 ) y Pi,j (n2 ) no sean nulas. (n +h+n2 ) 1 tendr´ l´ ıa ımite cero por Si la esperanza mj fuese infinita, n n=1 Pj,j 1 h 2.2. (n) Ni Dado que mi es finita, la acotaci´n | n | ≤ 1 nos permite tomar esperanzas o en el l´ ımite del Paso 1 y obtener (n) N lim E i n = lim n h=1 n (h) Pi,i = 1 > 0. mi Ambos resultados contradicen la desigualdad 1 n (n1 +n+n2 ) 1n P ≥ Pj,i (n1 )Pi,j (n2 ) Pi,i (n), n h=1 j,j n h=1 y muestran que debe ser mj finito. 2 1 1 1 Paso 4. Cuando mi < ∞, π = ( m1 , m2 , m3 , . . .) es un vector de probabilidades estacionarias. (n) Ni 1 De i n = 1 deducimos pasando al l´ ımite que s = i mi ≤ 1. Como 1 consecuencia, el vector de componentes πi = smi es un vector de probabilidades. Enrique M. Caba˜a. n Cap´ ıtu...
View Full Document

This note was uploaded on 07/09/2009 for the course FIECS EC314 taught by Professor Ciriloalvarez during the Spring '09 term at Peru State.

Ask a homework question - tutors are online