Eventos destacados

« 04 2024 »
LunMarMiéJueVieSábDom
1234567
891011121314
15161718192021
22232425262728
2930

Reconocimiento de Patrones (REPO-1 / 2016-17) **No se ofrece**

Documento electrónico: 
Créditos Totales: 
4.0
Fechas de impartición: 
Primer semestre
Tipo de asignatura: 
Itinerario I4
Objetivos docentes: 

El objetivo fundamental de esta asignatura es proporcionar a los alumnos unos sólidos cono-cimientos en técnicas de reconocimiento de patrones y técnicas de optimización, que sirvan de soporte y aplicación a un amplio conjunto de disciplinas científicas y técnicas.
Más concretamente, las competencias que se pretenden desarrollar entre los alumnos de la asignatura pueden describirse del siguiente modo:
1. Aplicar las técnicas de clasificación automática e inferencia para la toma de decisiones, la extracción de información y el diseño de sistemas complejos.
2. Elaborar conclusiones a partir de datos experimentales, independiente del campo de aplicación.
3. Optimizar clasificadores, siendo de interés destacar la relación entre la elección de las funciones de densidad componentes, el número de parámetros a estimar que implica dicha elección y la cantidad de datos disponibles para una tarea, selección de características relevantes y de reducción de dimensión de los vectores experimentales.
4. Valorar críticamente los resultados de los sistemas y seleccionar el mejor método de clasificación y aprendizaje de sus datos experimentales.
5. Aplicar técnicas de optimización basadas en métodos estocásticos, heurísticos y evolutivos.
6. Integrar en la gestión el conocimiento procedente de diferentes fuentes, de una manera óptima en función de la información incompleta disponible: estado del sistema, contexto temporal, multimodal y personal.

Programa: 

1. Introducción y metodología     (0,2)
• Introducción al curso. Metodología de las clases y evaluación. Introducción al reconocimiento de patrones y clasificadores   

2. Teoría de la decisión de Bayes     (0,6)
• Clasificador óptimo de Bayes, Probablilidades a priori, Verosimilitudes y probabilidades a posteriori. Uso de costes en clasificación. Ejemplos de clasificadores para funciones densidad de probabilidad sencillas  

3. Estimación paramétrica     (0,6)
• Estimacíon de máxima verosimilitud (ML) y estimación Bayesiana (BL)  

4. Estimación no paramétrica     (0,6)
• Ventanas de Parzen. N vecinos más cercanos (KNN). Clasificación no paramétrica    

5. Pre-procesamiento y selección de características     (0,4)
• Preproceso de características. Extracción de características. Selección de características. Análisis de componentes principales (PCA). Análisis lineal discriminativo (LDA). Transformaciones frecuenciales. Transformaciones no lineales. 

6. Aprendizaje no supervisado     (0,4)
• Métodos de agrupamiento. Cuantificadores vectoriales. Estimación de mezclas de gaussianas.    

7. Maquinas de soporte vectorial (SVM)     (0,4)
• Introducción a las máquinas de soporte vectorial. Clasificación de margen máximo. Transformación no lineal y uso de Kernels.  

8. Redes Bayesianas (BN), Metódos genéticos. Teoría de resonancia adaptativa (ART)   (0,6)        
• Definición de red Bayesiana. Separación entre conceptos y objetivos. Inferencia directa e inferencia inversa. Idea básica de métodos biológicos y de resonancia adaptativa (ART)

9. Presentación de trabajos     (0,2)
• Presentación de trabajos personales realizados por los alumnos   

Metodología docente
Las clases son presenciales por medio de transparencias complementadas con explicaciones en pizarra. Se dispondrá al final del curso de un tiempo para la presentación de los trabajos de los alumnos.

Evaluación: 

Los alumnos completan el curso con un trabajo final de carácter individual que ha de ser pre-sentado públicamente como parte de las actividades para adquirir competencias transversales de documentación, comunicación y publicación.
La memoria debe presentarse en el formato típico para los artículos de conferencias IEEE (http://www.ieee.org/conferences_events/conferences/publishing/templates....) con objeto de fomentar en el alumno, no sólo la lectura e interpretación de documentos científicos y técnicos, sino también su correcta redacción.
Este trabajo final, deberá ser de carácter eminentemente práctico, y en él debe aplicarse al-guna de las técnicas descritas durante el curso, preferiblemente, a un problema que pueda estar relacionado con la actividad investigadora o profesional del alumno.
El trabajo final constituirá un 70% de la nota final. Habrá un examen teórico de cuestiones generales de duración una hora, que representará el30% de la nota final.

Profesorado
Coordinador: 
Más Información
Código de la asignatura: 
93000721
Número del curso al que pertenece dentro de la titulación: 
1
Centro de impartición: 
ETSIT
Curso académico de impartición: 
2015-2016
Bibliografía: 

El libro de texto utilizado es R.O. Duda, P.E. Hart, David G. Stork, Pattern Classification.. John Wiley & Sons, 2001. Adicionalmente, para algunos temas se propone la siguiente bibliografía complementaria:

Bibliografía general complementaria
• Webb. Statistical Pattern Recognition. Second Ed. Wiley. 2002.
• Schalkoff Robert, J., .Pattern Recognition, Statistical, Structural and Neural Approa-ches. John Wiley & Sons, Inc., 1992.
• Statistical Pattern Recognition: A Review Anil K. Jain, Robert PW Duin, Jianchang Mao IEEE Transactions on Pattern Analysis and Machine Intelligence, vol 22 (1), 2000. pp. 4-37
Preproceso y selección de parámetros
• An Introduction to Variable and Feature Selection Isabelle Guyon and André Elisseeff Journal of Machine Learning Research 3 (2003) pp. 1157-1182
• Feature Selection for Classification M. Dash and H. Liu Intelligent Data Analysis, I (1997) pp. 131-156 Elsevier
• Selection of Relevant Features and Examples in Machine Learning Avrim L. Blum and Pat Langley Artificial Intelligence, vol 97 (1-2) (1997) pp. 245 . 271
• Wrappers for Feature Subset Selection Ron Kohavi, George H. John Artificial Intelligen-ce, vol 97 (1-2) Special Issue on Relevance. 1997. pp. 273-324
• Feature Selection: Evaluation, Application and Small Sample Performance Anil Jain y Douglas Zongker IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19 (2), 1997. pp. 153-158
Aprendizaje no supervisado
• Machine Learning Courses Nathalie Japkowicz En línea [Última consulta Septiembre 2010] http://www.site.uottawa.ca/~nat/
• Two-Dimensional Vector Quantization Animation En línea [última consulta Septiembre 2010] http://www.data-compression.com/vqanim.shtml
• An Algorithm for Vector Quantizer Design Linde, Y., Buzo, A. and Gray, R. M. IEEE Tran-sactions on Communications, Vol.COM-28, No. 1, pp. 84.95, Enero 1980.
• Self Organizing Maps Tevuo Kohonen Springer Verlag; 3rd edition. ISBN: 3540679219

Máquinas de soporte vectorial

• A Tutorial on Support Vector Machines for Pattern Recognition, C. J.C. Burges, Data Mining and Knowledge Discovery 2, 121-167, 1998
Algoritmos genéticos
• Goldberg, D. E. Genetic algorithms in Search, Optimization, and Machine Learning, Addison-Wesley, 1989.
• Melanie Mitchell. An Introduction to Genetic Algorithms. The MIT Press. Cambridge, MA, 1996.
• John R. Koza. Genetic Programming: On the Programming of Computers by Means of Natural Selection. Bradford Books, 1992.
• Michalewicz, Z. Genetic Algorithms + Data Structures = Evolution Programs, 3rd edi-tion, Springer, 1996.

 

Tribunal
Presidente: