De la clase los resultados experimentales sobre 21

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: autores se puede expresar de la siguiente m anera: P{C = Ci\Xi =Xi,...,Xn = Xn)0C WiP{C = C¿) J ] P[Xk = Xk\C = C¿) fe=i (3.22) 46 Clasificación Supervisada Basada en RRBB. Aplicación en Biología Computacional Los pesos relativos a cada clase se buscan a través de un algoritmo voraz guiado por el tanto por ciento de bien clasificados, el cual se obtiene por el método de resustitución. P P P P '112!' P P ' 1 2 1 1 "^221 p P 1 22''P222 p X, P1 23''P223 X , '123''^: '122''^: ' 1 31i'^2 212 P ' P 1 32' "^ 232 X, F igura 3.8: Ejemplo de estructura de particiones en un problema con dos clases y tres variables predictoras El enfoque WenBay (Weighted nmve-Bayes) [FDHOl], permite asociar pesos a particiones, en lugar de a cada clase. Las instancias de cada variable predictora son particionadas de manera recursiva con el objetivo de maximizar la entropía. En la figura 3.8 se muestra un ejemplo de una posible estructura de partición, en donde los valores Pikj representan la partición número j realizada en la clase z y la variable k. El ajuste realizado por los autores se expresa de la siguiente manera: P{C = Ci\Xi = X^,...,Xn w = Xn) O P{C = a] n [ P ( X f c = Xk\C = Ci)] (Xk,k,i) C (3.23) fc=i siendo w{Xk, k,i) la función de peso para la variable X^ y la clase c¿. En los resultados experimentales sobre seis bases de datos del repositorio de UCI [MA95] se consigue mejorar a naíve-Bayes una media de 0,6% en porcentaje de bien clasificados con la técnica de v alidación 10-fold cross-validation. El algoritmo Iterative Bayes [GamOO] tiene como idea fundamental mejorar de forma iterativa las probabilidades condicionadas usadas en el modelo naiVe-Bayes. El algoritmo itera sobre el conjunto de casos por medio de un algoritmo de "ascenso por la colina". Todas las instancias del conjunto de entrenamiento se clasifican en cada iteración utilizando las p robabilidades actuales, que son evaluadas a través de la siguiente función l ¿ ( l - m á x í , ( C = c,|xW)) (3.24) ¿ =i d onde N r epresenta el número de instancias y j r ecorre el conjunto de posibles valores de la clase. El proceso iterativo se repite mientras se consiga decrementar la anterior función de evaluación, hasta un máximo de diez iteraciones. La función de actualización tiene la siguiente heurística: Si la instancia está correctamente clasificada entonces el incremento es positivo. En caso contrario, el incremento es negativo. El valor del incremento se calcula con la 3 .5. E nfoques semi naive-Bayes 47 s iguiente fórmula heurística (1,0 — p{clase predicha\x))/num. clases. E s decir, el v alor del incremento depende de la clase predi cha y del número de clases. 2. L as probabilidades condicionadas de na'íve-Bayes deben incrementarse por cada instancia del conjunto de datos si la clase predicha es verdadera o disminuirse en caso c ontrario. L as probabilidades condicionadas son actualizadas cada vez que se recorre el conjunto d e datos. Esto significa que el orden de las instancias en el conjunto de datos influye en el resultado final. Por último, es importante destacar que no hay garantía de mejora con e ste procedimiento. Las pruebas experimentales fueron realizadas sobre 27 conjuntos de d atos del repositorio de UCI, consiguiendo reducir el error medio en un 1,24%. Basándose en el anterior algoritmo de Iterative Bayes, se han creado dos versiones a daptativas de naive-Bayes [GC02]. La primera denominada Incremental Adaptive Bayes c onstruye el modelo naive-Bayes desde el conjunto de entrenamiento y, posteriormente, lo a ctualiza cada vez que se le presenta un nuevo caso. La segunda On-line Adaptive Bayes t an sólo actualiza el modelo cuando es capaz de predecir la clase a la que pertenece el n uevo caso. E l algoritmo RBC (Robust Bayesian Classifier) [RSOl] es un clasificador naive-Bayes d iseñado para el caso en que el conjunto de datos presente valores ausentes. Este algoritmo t iene en cuenta todas las posibles combinaciones de los valores ausentes, obteniendo de esta f orma intervalos para cada una de las probabilidades a priori y condicionales estimadas por n aive-Bayes. A partir de estos intervalos es posible calcular intervalos para la distribución d e probabilidad a posterior! de la clase. Los resultados experimentales sobre 21 conjuntos d e casos del repositorio UCI demuestran la superioridad de este método. E l enfoque NGC (Naive Credal Classifier) [Zaf02] es una extensión del clasificador n aive-Bayes basada en conjuntos credales, también denominados conjuntos convexos de d istribuciones de probabilidad. Para escapar del requerimiento de la precisión de los valores p untuales que se deben estimar en naive-Bayes, NGC representa las distribuciones de p robabilidad como puntos pertenecientes a regiones geométricas cerradas y acotadas que se encuentran descritas por restricciones lineales. Como consecuencia, el resultado de una clasificación es un conjunto de clases, candidatas a ser la categoría correcta. P or último cabe destacar el trabajo [GZ02]. En él se propone encontrar los parámetros q ue...
View Full Document

This note was uploaded on 02/01/2012 for the course . . taught by Professor . during the Spring '11 term at Pontificia Universidad Católica de Chile.

Ask a homework question - tutors are online