Cadenas de Markov

Xn1 ei k1 i i de aqu resulta la igualdad n n1

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: nera inductiva: Supongamos (n−1) (n−1) (n−1) que conocemos π (n−1) = (π1 , π2 , . . . , πk ). (n) Se deduce para cada j que πj = P{Xn = Ej } = P k=1 {Xn−1 = Ei , Xn = i Ej } = k=1 P{Xn−1 = Ei , Xn = Ej } = k=1 P{Xn−1 = Ei }P{Xn = Ej | i i (n−1) pi,j . Xn−1 = Ei } = k=1 πi i De aqu´ resulta la igualdad π (n) = π (n−1) P , que vale para n ≥ 1 y permite ı deducir por inducci´n completa o π (n) = π (0) P n . (1.2) Esta f´rmula muestra que si sabemos c´mo se comportan las sucesivas poo o tencias de P , podemos deducir c´mo evoluciona π (n) . Por ejemplo, si existiera o el l´ ımite limn→∞ P n = P ∞ , entonces existe el l´ ımite de π (n) y vale π (0) P ∞ . En la secci´n que sigue vamos a ver que este es el caso del Ejemplo 1. o Introducci´n a la probabilidad. o 1.3. Cadenas con estados absorbentes. 1.2.1 5 Nota biogr´fica.- Markov, Andrei A. (1856-1922). a Andrei Markov naci´ en Ryazan (Rusia), fue alumno de o Chebyshev, se gradu´ en la Universidad de San Petersburgo, o y fue profesor de esa misma Universidad. Sus primeros trabajos matem´ticos se refieren a la teor´ de a ıa n´meros y al an´lisis. Entre otros temas, contribuy´ al estuu a o dio de las fracciones continuas, las series y las integrales. Su aporte m´s importante a la probabilidad se refiere al estudio a de procesos estoc´sticos, particularmente el tipo de dependena cia de sucesiones de variables aleatorias que lleva su nombre (Cadenas de Markov). 1.3 Cadenas finitas con estados absorbentes. Comencemos analizando el Ejemplo 1: Los estados son I = E1 , R = E2 , G = E3 , N = E4 , el vector de probabilidades iniciales es π (0) = (1, 0, 0, 0) y la matriz de probabilidades de transici´n es: o P = 0 5/6 1/6 0 0 4/6 1/6 1/6 00 1 0 00 0 1 Se observar´ que para inscribir el juego dentro del modelo general de una a Cadena de Markov homog´nea, se ha a˜adido artificialmente a la descripci´n e n o original del problema que cuando el jugador llega al estado G que corresponde a ganar el juego, contin´an realizandose las transiciones, pero son trivial...
View Full Document

This note was uploaded on 07/09/2009 for the course FIECS EC314 taught by Professor Ciriloalvarez during the Spring '09 term at Peru State.

Ask a homework question - tutors are online