Un modelo de aprendizaje e inferencia a partir de información imperfecta
- José Manuel Cadenas Figueredo Director
- Alberto Ruiz García Director
Universidade de defensa: Universidad de Murcia
Fecha de defensa: 08 de outubro de 1999
- Fernando Martín Rubio Presidente/a
- Luis Daniel Hernández Molinero Secretario
- José Luis Verdegay Galdeano Vogal
- Pablo Bustos García de Castro Vogal
- Félix Monasterio-Huelin Maciá Vogal
Tipo: Tese
Resumo
En este trabajo se analiza la información imperfecta en el contexto de los mecanismos automáticos de inferencia y aprendizaje inductivos, Se presenta el modelo MFGN( Mixtures of Factorized Generalized Normals) como un método eficiente para realizar inferencia y aprendizaje desde información imperfecta. El modelo obtiene una expresión explicita de la función de densidad conjunta modelo-observación, donde tanto la densidad conjunta como la información de entrada pueden ser interpretadas como funciones de masas que se combinan. La estructura matemática de mezcla de normales generalizadas factorizadas, permite una computación eficiente de las densidades a posteriori, así como que la interpretación del modelo como función de masas dé lugar a evidencias definidas sobre dominios de una sola variable, lo cual facilita el trabajo con la regla de evidencias de Dempster-Shafer. El modelo permite,tanto en su fase de inferencia como de aprendizaje, utilizar información expresada de una gran variedad de formas a través de modelos de incertidumbre objetiva, subjetiva e imprecisión. Los resultados experimentales indican que el modelo MFGN es capaz de reconstruir el modelo de dependencias de los atributos y realizar inferencia a partir de observaciones con un grado moderadamente alto de incertidumbre e imprecisión. El hecho de situar el modelo en el marco de una teoría más general, como es la Teoría de Evidencias de Demspter-Shafer, permitirá usar distintas interpretaciones de la información imperfecta según la forma que parezca más adecuada.