{[ promptMessage ]}

Bookmark it

{[ promptMessage ]}

Cadenas de Markov - Introduccin a los procesos estocsticos...

Info iconThis preview shows pages 1–5. Sign up to view the full content.

View Full Document Right Arrow Icon
Introducci´ on a los procesos estoc´asticos. Notas de E.M.Caba˜na para el Curso de la Licenciatura en Estad´ ıstica 1 Segundo Semestre de 2004 1 Universidad de la Rep´ublica , Departamento de M´ etodos Cuantitativos de la Facultad de Ciencias Econ´ omicas y de Administraci´on, y Centro de Matem´ atica de la Facultad de Ciencias.
Background image of page 1

Info iconThis preview has intentionally blurred sections. Sign up to view the full version.

View Full Document Right Arrow Icon
Contenido 1 Cadenas de Markov 1 1.1 Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Cadenas finitas homog´ eneas en el tiempo . . . . . . . . . . . . . 2 1.2.1 Nota biogr´ afica.- Markov, Andrei A. (1856-1922) . . . . . 5 1.3 Cadenas finitas con estados absorbentes . . . . . . . . . . . . . . 5 1.3.1 Partici´ on en bloques de la matriz de probabilidades de transici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Uso de los m´ etodos matriciales de § 1.3 para el c´ alculo de los tiempos esperados de absorci´ on . . . . . . . . . . . . . . . . . . . 7 1.5 Teorema de convergencia de probabilidades en una cadena de Markov finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.6 Un ejemplo: Obtenci´ on de las probabilidades de absorci´ on, y de las esperanzas de los tiempos de absorci´ on a partir del Teorema de convergencia de probabilidades. . . . . . . . . . . . . . . . . 14 2 L´ ımite de las probabilidades en una cadena numerable. 17 2.1 Cadenas con una cantidad numerable de estados. . . . . . . . . 17 2.2 Teorema de convergencia de probabilidades en una cadena de Markov numerable . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.2.1 Significado de las hip´ otesis del enunciado. . . . . . . . . 19 2.2.2 Demostraci´ on del Teorema 2.2.1. . . . . . . . . . . . . . 21 2.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 i
Background image of page 2
Background image of page 3

Info iconThis preview has intentionally blurred sections. Sign up to view the full version.

View Full Document Right Arrow Icon
1. Cadenas de Markov 1.1 Algunos ejemplos. Ejemplo 1 . Un jugador arroja un dado. Si el resultado es 1, gana. Si el resultado es a = 1 realiza un nuevo lanzamiento independiente. Cuando el resultado de este nuevo lanzamiento es 1, pierde. Cuando es a , gana, y cuando no es 1 ni a , vuelve a realizar un lanzamiento independiente, con el cual se procede de la misma manera, hasta que por primera vez el resultado sea 1 ´ o a . A lo largo de este juego se pueden producir cuatro situaciones, o estados del juego: I: El jugador se dispone a arrojar el dado por primera vez. G: El jugador acaba de realizar un lanzamiento exitoso y por lo tanto gana el juego. N: El jugador ha obtenido un resultado desfavorable y por lo tanto pierde. R: El ´ultimo lanzamiento no define el resultado del juego, y por lo tanto el jugador se dispone a realizar un nuevo lanzamiento. En este caso ganar´ a si obtiene a , perder´ a si obtiene 1 y volver´ a a la misma situaci´ on si obtiene cualquier otra cara del dado. El diagrama de la Figura 1.1 indica los estados posibles, y las flechas que los vinculan indican las transiciones entre estados que pueden ocurrir a medida que transcurre el juego, as´ ı como sus respectivas probabilidades, con la suposici´ on de que el dado es sim´ etrico. Nota: Es posible distinguir varios estados de no definici´ on de acuerdo a cu´al sea el punto a obtenido la primera vez. En ese caso, podemos considerar que el sistema tiene estados I, G, N, y R 2 , R 3 , R 4 , R 5 y R 6 . Se sugiere indicar el esquema gr´ afico similar al de la Figura 1.1, y verificar que existe una corres- pondencia can´ onica entre los dos diagramas, que conserva las probabilidades.
Background image of page 4
Image of page 5
This is the end of the preview. Sign up to access the rest of the document.

{[ snackBarMessage ]}