Humberto Rolando Parejas Llanovarced
La Inteligencia Artificial (también conocido comúnmente como AI, del inglés Artificial Intelligence) está obteniendo una relevancia considerable en los diferentes dominios del conocimiento. Una de las áreas de mayor proyección es la Inteligencia Artificial explicable (referenciado como XAI, del inglés eXplainable Artificial Intelligence), necesaria para proporcionar transparencia a los procesos de razonamiento de los modelos de aprendizaje automático (denominado como ML, del inglés Machine Learning).
Los métodos de explicación son diversos y con aplicaciones en un número creciente de áreas, como el Internet de las Cosas (nombrado como IoT, del inglés Internet of Things). El uso de la AI para incrementar la utilidad de los datos recopilados por los sensores de IoT está cobrando importancia rápidamente. El campo conjunto resultante entre AI e IoT es denotado como AIoT (Artificial Intelligence in the Internet of Things).
Asimismo, los métodos XAI están siendo aplicados a distintas tareas del IoT, por ejemplo, en la detección de anomalías, sistema de asistencia, maniobras automatizadas o apoyo a la toma de decisiones, y en múltiples dominios del IoT como: aviación, gestión de la energía, medio ambiente, cuidado de la salud, industria, seguridad, agricultura inteligente, y transporte.
Las aplicaciones inteligentes en IoT tienen los mismos requisitos de explicabilidad que cualquier otro sistema de AI. Por lo tanto, la inclusión de XAI en el IoT persigue que los usuarios puedan comprender mejor las decisiones tomadas por sistemas inteligentes que están basadas en los datos que proporcionan estos dispositivos. Denotamos el campo conjunto resultante entre XAI e IoT como XAIoT (eXplainable Artificial Intelligence of Things).
La selección de un método XAI para un sistema IoT es compleja, debido a la gran cantidad y variedad de algoritmos de explicación existentes, que además requieren de ciertas condiciones de aplicabilidad. Además, la preferencia de un método XAI concreto para un sistema inteligente en el dominio del IoT tiene también una componente de subjetividad desde el punto de vista del usuario que debe ser considerada.
En esta tesis doctoral se propone resolver este problema de selección de métodos XAI en el dominio del IoT a través de modelar los requisitos del sistema inteligente y aplicar el paradigma Razonamiento Basado en Casos (denominado comúnmente como CBR, del inglés Case-Based Reasoning) que nos permitirá reutilizar experiencias de explicación previas y capturar las preferencias de los usuarios.
De esta forma, en este trabajo de tesis doctoral se plantean distintos objetivos: modelado de requisitos de explicación de IoT, selección y caracterización de técnicas de explicación del dominio IoT (XAIoT) aplicando el modelo CBR. Como consecuencia de la investigación desarrollada, se han obtenido cuatro resultados principales: (1) un modelo teórico para la conceptualización de los procesos de explicación, (2) una ontología desde la conceptualización del modelo, (3) una base de casos con el conocimiento del dominio de métodos XAI para un sistema IoT, y (4) un método CBR aplicado sobre una base de casos obtenidos directamente a partir de la opinión de los usuarios para la selección del mejor método de explicación en un sistema IoT. Asimismo, a través de las evaluaciones experimentales realizadas en nuestras investigaciones, se ha demostrado que nuestro sistema basado en CBR es efectivo como solución al problema planteado.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados