G dietterich learning at the knowledge level machine

Info iconThis preview shows page 1. Sign up to view the full content.

View Full Document Right Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: ón, por lo que quedan muchos campos abiertos para futuros desarrollos: • Adaptación del clasificador lENB para su uso con variables continuas. • Realización de implementaciones de lENB que cambien la función objetivo del tanto por ciento de bien clasificados. Por ejemplo, se podría maximizar el área bajo la curva ROC del clasificador. 8.2. Líneas de trabajo futuro 177 • O tra posible idea, sería realizar una selección de variables previa a la ejecución de l ENB. P or otra parte, la paralelización de lENB realmente ha supuesto paralelizar los algoritmos heurísticos EDAs. Dentro de este campo queda mucho trabajo por desarrollar. A lgunas ideas son: • R ealizar un estudio detallado sobre los ratios de migración entre islas. • P robar diferentes topologías de migración entre islas. • E studio de algoritmos heurísticos paralelos híbridos AGs-EDAs. En este sentido sería p osible tener unas islas que ejecuten una optimización con AGs y otras que lo hagan c on EDAs. • P robar otro tipo de paralelizaciones de EDAs, similares a las de grano ñno que se r ealizan con los AGs. 8.2.2. Líneas abiertas en el aprendizaje de clasificadores supervisados b asados en redes Bayesianas E n este campo también han quedado diversas líneas abiertas. Las principales son: • U sar la idea de estimaciones por intervalo expuesta en el lENB, con algoritmos tales c omo Pazzani, BAN o TAN. • R ealizar búsquedas de estructuras de tipo BAN en donde se penalice la complejidad d e las estructuras encontradas. 8 .2.3. L íneas abiertas e n la modelización m a t e m á t i c a de las proteínas y d el P S S P E s necesario seguir desarrollando la modelización matemática realizada. El siguiente p aso es, sin duda, modelizar la información evolutiva de las proteínas. Este paso intermedio e s imprescindible a la hora de poner definir de forma totalmente simbólica el problema de l a predicción de la estructura secundaria de las proteínas. 8.2.4. Líneas abiertas en el desarrollo de un clasificador para PSSP con r edes Bayesianas P rácticamente todos los predictores de estructura secundaria actuales realizan, en su p rimera capa de predicción, una multiclasificación. El clasificador básico es entrenado con d iferentes tamaños de ventana y diferentes conjuntos de datos, realizándose una multiclasificación de todos estos resultados. Esta multiclasificación supone, normalmente, un 4 % d e mejora aproximada. Es posible usar esta misma idea con el clasificador basado en redes B ayesianas. P or otra parte, la segunda capa de predicción que proponemos sólo mejora un 0,88 %, m uy por debajo de las mejoras obtenidas por otros métodos. De esta forma, nos planteamos s ustituir la segunda capa de predicción por una basada en redes de neuronas. 178 Clasificación Supervisada Basada en RRBB. Aplicación en Biología Computacional Creemos que con estos cambios la exactitud de este método puede llegar a ser similar a la de los métodos actuales. 8 .2.5. Líneas abiertas en el multiclasificador basado en redes Bayesianas p ara P S S P Todavía queda mucho trabajo a desarrollar basado en el multiclasiñcador. Algunas ideas son: • Probar más algoritmos de clasificación como multiclasificadores. En este punto se está ya avanzando en el uso de rough sets como una posible alternativa. • Poner el multiclasificador a disposición pública. En este sentido, nos queremos poner en contacto con los responsables del proyecto EVA, para una posible integración del multiclasificador en su sistema. • Crear un punto central en Internet a través del cual, y con una sola petición, se puedan conseguir los resultados de todos los servidores de predicción de estructura secundaria de Internet. B ibliografía [AG96] S. F. Altschul and W. Gish. 2 66:460-480, 1996. Local alignment statistics. Meth. Enzymol, [AGM+90] S. F. Altschul, W. Gish, W. Miller, E. W. Myers, and D. J. Lipman. Basic l ocal alignment search tool. Journal of Molecular Biology, 2 15:403-410, 1990. [AMS+97] S. F. Altschul, T. L. Madden, A. A. Schaffer, J. Zhang, Z. Zhang, W. Miller, a nd D. J. Lipman. Gapped BLAST and PSI-BLAST: a new generation of p rotein datábase search programs. Nucleic Acids Res, 2 5(17):3389-3402, 1997. [And73] M.R. Anderberg. Y ork, 1973. [Aso97] M. Asogawa. Beta-sheet prediction using inter-strand residue pairs and refinement with Hopfield neural network. In T. Gaasterland, P. Karp, K. Karplus, C . Ouzounis, and C. Sander et al., editors, In Fifth International Conference on Intelligent Systems for Molecular Biology, p ages 4 8-51. A AAI Press, H alkidiki, Greece., 1997. [BBB+88] H. Bohr, J. Bohr, S. Brunak, R.M.J. Cotterill, and B. Lautrup et al. Protein secondary structure and homology by neural networks. FEBS Letters, 2 41:223-228, 1988. Cluster Analysis for Applications. A cademic Press, New [ BBF+99a] P. Baldi, S. Brunak, P. Prasconi, G. PoUastri, and G. Soda. Bidirectional d ynamics for protein secondary structure prediction. Stock...
View Full Document

{[ snackBarMessage ]}

Ask a homework question - tutors are online