, Francisco Martínez-Álvarez (codir. tes.) 
, Usue Mori Carrascal (secret.)
, Giovanna Sannino (voc.) 
El avance de lo que se conoce como inteligencia artificial (y que propiamente no es inteligencia, sino un conjunto de modelos que son muy eficientes procesando datos) ha transformado significativamente diversos campos, desde la medicina hasta la industria del entretenimiento.
Sin embargo, el usuario humano necesita saber qué hace al modelo de inteligencia artificial tomar una decisión.
El área de la explicabilidad de inteligencia artificial se abre como un campo de investigación hacia la consecución de modelos transparentes, evitando sesgos y mejorando la interpretabilidad.
Esta Tesis Doctoral ha sido presentada mediante la modalidad de compendio de publicaciones, con un total de seis aportaciones científicas en Congresos Internacionales y revistas con alto índice de impacto en el Journal of Citation Reports (JCR).
En ella se recoge una investigación orientada al estudio, análisis y desarrollo de técnicas de explicabilidad para modelos de inteligencia artificial aplicados a la predicción de series temporales.
En una primera fase, la tesis se centró en el estudio y aplicación de técnicas de explicabilidad existentes en la literatura. Distintas técnicas se aplicaron a la predicción de series temporales aplicadas a dos fuentes de datos reales, con resultados publicados en una revista.
En concreto, se utilizaron datos relativos a la enfermedad de la apnea del sueño, con resultados publicados en las conferencias internacionales 26th International Conference on Knowledge-Based and Intelligent Information & Engineering Systems (KES) y 16th International Work-Conference on Artificial Neural Networks (IWANN).
También se aplicaron datos meteorológicos y de evaporación de agua en cultivos, publicado en la revista Computers and Electronics in Agriculture, indexada con categoría Q1.
Después, se diseñó una metodología para una técnica de explicabilidad propia, basada en reglas de asociación. En este caso, los datos utilizados fueron relativos a la demanda eléctrica en España.
Los resultados preliminares fueron publicados en la conferencia internacional 38th ACM/SIGAPP Symposium On Applied Computing.
Esta investigación fue extendida para generar explicaciones de forma gráfica, aumentando la interpretabilidad del método. El trabajo fue publicado en la revista \textit{Information Fusion}, indexada con categoría Q1.
Posteriormente, y con el objetivo de evaluar y comparar distintas técnicas de explicabilidad, se desarrolló una metodología, también basada en reglas de asociación. Esta investigación se encuentra en proceso de segunda revisión en la revista IEEE Transactions on Pattern Analysis and Machine Intelligence, indexada con categoría Q1.
Por último, se realizó una estancia de investigación en el Fraunhofer Heinrich Hertz Institute, en Berlín, Alemania, donde se estudió la adaptación de técnicas de explicabilidad creadas para imágenes al ámbito de la series temporales. Otras investigaciones en curso involucran la aplicación de dichas técnicas a modelos de computación cuántica.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados