11 ejemplo de estructura tan o tro enfoque diferente

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: maximizan la verosimilitud condicional en lugar de la verosimilitud de la muestra en u na red Bayesiana. Su propuesta se encuadra dentro del aprendizaje discriminativo en el que se tiene en cuenta la existencia de una variable especial, la variable a clasificar. Propone u n algoritmo de descenso por el gradiente con el que proporciona una aproximación a los v alores óptimos de los parámetros. 3 .5.3. E nfoques que seleccionan subconjuntos de instancias antes de la a plicación de na'íve-Bayes E xisten una serie de variantes que dividen el conjunto de aprendizaje en diferentes s ubconjuntos y que realizan una clasificación diferente sobre cada uno de ellos. L a variante NBTREE (Naive-Bayes Tree) [Koh96] presenta un algoritmo híbrido entre los árboles de clasificación y el clasificador naive-Bayes. Se puede definir NBTREE como 48 Clasificación Supervisada Basada en RRBB. Aplicación en Biología Computacional F igura 3.9: Ejemplo de estructura NBTREE con un nodo de decisión con el atributo X2 y dos clasificadores naive-Bayes como hojas u n árbol de clasificación cuyas hojas son clasificadores naiVe-Bayes (véase figura 3.9). Cada h oja del NBTREE contiene un clasificador naíve-Bayes local que no considera las variables q ue se encuentran involucradas en los test univariados que están en el camino que lleva h asta lá hoja. Las propiedades de este árbol de clasificación son: (i) cada nodo interno r epresenta una variable, (ii) cada nodo interno tiene tantos hijos o ramas salientes como e stados tiene la variable representada en dicho nodo, (iii) todas las hojas están al mismo nivel y (iv) en cualquier camino que se recorra desde la raíz hasta las hojas no existen v ariables repetidas. La condición (iii) se impone para simplificar el m.odelo, pero puede ser no tenida en cuenta en la práctica. En el trabajo [PLL02] se presenta un algoritmo h eurístico para el aprendizaje de este tipo de estructuras. Este algoritmo está basado en l a verosimilitud marginal de los datos para realizar la búsqueda. E l algoritmo LBR (Lazy Bayesian Rule) [ZWOO] t r a t a de solventar los problemas derivados de los subconjuntos disjuntos de tamaño reducido, que pueden aparecer en NBTREE, a través de un aprendizaje perezoso que retrasa el cálculo hasta el último momento. E l algoritmo propuesto construye reglas cuyos consecuentes son clasificadores locales naíveBayes. El antecedente de cada regla es una conjunción de pares atributo-valor, mientras q ue el consecuente es un clasificador local naive-Bayes inducido a través de aquellos ejemplos que satisfacen el antecedente de la regla. Las pruebas experimentales se han realizado s obre 29 conjuntos de datos del repositorio UCI, consiguiendo demostrar su superioridad r especto al naive-Bayes, NBTREE, C4.5 y BSEJ. P or último, el enfoque Recursive Bayesian Classifier [Lan93] se puede interpretar como un ejemplo de aproximación jerárquica. Se comienza utilizando el clasificador naive-Bayes. Si se consigue clasificar todas las instancias de forma correcta se concluye el algoritmo, en c aso contrario se llama recursivamente al clasificador naiVe-Bayes para cada clase para la q ue se hayan asignado casos pertenecientes a otras clases, usando todos los casos asignados a d icha clase como conjunto de entrenamiento. 3.6. Naíve-Bayes aumentado 3 .6. 49 Naíve-Bayes aumentado La exactitud de las redes Bayesianas como clasificadores supervisados aumenta si se t iene en cuenta la existencia de una variable especial, la variable a clasificar. Una forma sencilla de asegurar que esto suceda es a través de la estructura de la red, como sucedía con el clasificador nai've-Bayes, en el que había un arco entre la clase y cada uno de los atributos. Otro tipo de estructura que asegura una buena exactitud es la denominada Naive-Bayes Aumentado (Augmented Naive-Bayes) o BAN, que es la estructura del nai'veBayes aumentada con arcos entre las variables. E n [ZLOl] se plantea un paradigma perteneciente a BAN, en el que la única limitación e ntre los arcos de las variables predictoras es que no se formen ciclos (véase figura 3.10). A demás demuestra que este tipo de modelos pueden representar cualquier clasificador Bayesiano. F igura 3.10: Ejemplo de estructura 5^A''cuya única restricción es que no se formen ciclos entre las variables predictoras F igura 3.11: Ejemplo de estructura TAN O tro enfoque diferente también perteneciente al paradigma Augmented Naive-Bayes es l a denominada TAN (Tree Augmented Nai've-Bayesian) [ FGG97], en la que cada atributo t iene como padre la variable clase y como mucho otro atributo. Véase la figura 3.11. Los a utores proponen un algoritmo, adaptación de uno anterior [CL68], que utiliza el concepto d e información mutua entre las variables predictoras condicionada a la variable a clasificar. L a función se define como: 50 Clasificación Supervisada Basada e n R RBB. Aplicación e n B iología Computacional 7.(X,y|C) = E P ( x , . , . ) l o g ^ g | | g ^ (3.25) D e mane...
View Full Document

Ask a homework question - tutors are online