La selección de características consiste en la búsqueda del subconjunto óptimo de características que disminuya el error de un algoritmo de aprendizaje. Existen tres tipos de algoritmos de selección de características: los de filtro, los envolventes y los híbridos; los de filtro escogen el subconjunto de características independiente del algoritmo de aprendizaje, los envolventes usan los algoritmos de aprendizaje para escoger el mejor subconjunto de características y los hibridos es una combinacion de los dos anteriores. En este trabajo realizamos una comparación de 4 algoritmos de selección de características envolventes para clasificación con búsquedas: Búsqueda Aleatoria Optimizada, Búsqueda Mejor Primero, Búsqueda Genética y Búsqueda Aleatoria. Para medir la calidad del subconjunto usaremos el error del clasificador. Los clasificadores usados son: Red Neuronal de Retropropagación, Árbol de Decisión C4.5, Máquina de Vector de Soporte y el clasificador bayesiano NaiveBayes. En los experimentos, usaremos 3 Bases de Datos extraídos del Repositorio UCI. Para estas pruebas se demuestra que la Búsqueda Aleatoria Optimizada produce, en promedio, el menor error de clasificación y que la Búsqueda Genética reduce mayor cantidad de características.
|