M ejora de velocidad en los algoritmos de induccin

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: la tabla. Valores muy pequeños para no-matches, t ales como 0,01/A'' y c orrecciones similares para Laplace parecen funcionar mejor. Método E rror m e d i o Laplace k = 1/N N o-matches P = 0,01/N Laplace k — 0,01 N o-matches N o-matches N o-matches L aplace k = P = P{C = Ci)/N P = 0,1/iV P = 0,5/iV 0,1 Laplace k = 1 Sin método {P = 0) 18.58 18.51 18.70 18.62 18.64 18.76 18.83 19.59 20.16 T abla 3.1: Comparación de métodos para cálculo de probabilidades en náíve-Bayes 3.2.2. NaiVe-Bayes con atributos continuos E l clasiñcador naíve-Bayes también puede ser utilizado sobre atributos continuos [JL95]. E n este sentido, una suposición muy común, aunque no sea intrínseca al método naiVeBayes, es que en cada atributo continuo los valores siguen una distribución normal. Por t anto, es posible representar esta distribución a través de su media y su desviación típica y c alcular la probabilidad de cualquier valor a través de estos parámetros. De esta forma, p ara cada clase Cj y cada atributo continuo k q ueda, Pk,i = P{Xk = Xk\C = a) = g{x; nk,i, (^k,i) (3.16) d onde, g{x;ix,c7) = - ^ e - ^ ' ^ v27r(T (3.17) s iendo g l a función de densidad de probabilidad de una distribución normal o gaussiana. E l anterior modelo deja un pequeño conjunto de parámetros a estimar del conjunto d e entrenamiento. Para cada clase y atributo discreto se debe estimar la probabilidad que t omará el atributo en cada valor del dominio dada la clase. Para cada clase y atributo c ontinuo se deben calcular la media y desviación típica del atributo dada la clase. La e stimación máximo verosímil de estos parámetros es directa. La estimación de probabilidad 3 .3. D iscretización de los atributos continuos 41 de que una variable aleatoria discreta tome un valor determinado es igual a la frecuencia d e la muestra -número de veces que el valor es observado- dividido por el número total d e observaciones. La estimación máximo verosímil de la media y desviación típica de una d istribución normal son la media de la muestra y la desviación típica de la muestra [Sch95]. A unque es típico basarse en la presunción de que las variables continuas siguen una d istribución normal o gaussiana, existen más enfoques. Entre ellas destaca el algoritmo de a prendizaje Flexible naive-Bayes [JL95]. Este algoritmo muestra como única diferencia, el m étodo utilizado para la estimación de la densidad de los atributos continuos el cual se b asa en la estimación de densidad del núcleo [Kernel density estimation). L os resultados experimentales muestran que el método Flexible naive-Bayes m ejora al naive-Bayes con estimaciones normales o gaussianas en la mayoría de los conjuntos de d atos. Sin embargo, la correcta discretización de las variables continuas consigue mejorar a a mbos métodos [JL95]. E l desarrollo de esta tesis se centra en el uso de variables discretas, por lo que siempre q ue se tengan variables continuas éstas serán discretizadas antes de su uso. En la siguiente sección se analizan las distintas técnicas de discretización. 3 .3. D iscretización de los atributos continuos D urante los últimos años se ha comenzado a prestar gran atención a la discretización d e los atributos continuos. Hay tres razones principales que han llevado a esta situación [DKS95]: • M uchos algoritmos desarrollados en aprendizaje automático sólo son capaces de a prender desde variables discretas. Debido a que muchas tareas de clasificación de l a vida real presentan valores continuos, se hace necesaria una discretización para p oder utilizar estos algoritmos. • A lgunos clasificadores, como ocurre con na'íve-Bayes o C4.5, pueden ser utilizados t anto sobre datos discretos como sobre datos continuos, aunque la correcta discretización de los datos puede llevar a una mejora en su rendimiento. • M ejora de velocidad en los algoritmos de inducción que utilizan atributos discretos. E xisten tres criterios diferentes a la hora de clasificar los métodos de discretización [DKS95]: • M étodos locales vs. métodos globales: En los métodos locales los atributos se discretizan de forma independiente, mientras que en las discretizaciones efectuadas por los métodos globales se proponen políticas de discretización que tienen en cuenta a t odas las variables al mismo tiempo. • S upervisados vs. no supervisados: Los métodos no supervisados no hacen uso de las e tiquetas de clase de los casos del conjunto de entrenamiento durante la discretización. Por contra, los métodos supervisados utilizan esta etiqueta de clase. 42 Clasificación Supervisada Basada en RRBB. Aplicación en Biología Computacional • E státicos vs. dinámicos: Muchos métodos de discretización requieren un parámetro k q ue indica el máximo núm.ero de intervalos que puede producir durante la discretización. Por otra parte, los métodos dinámicos realizan una búsqueda en el espacio d e los posibles valores de k s in necesidad de fijar el valor de dicho parámetro. Se ha constatado,...
View Full Document

Ask a homework question - tutors are online