Pablo Morala
Los continuos avances en inteligencia artificial, en especial propiciados por las redes neuronales y el deep learning, han logrado grandes éxitos en diversos campos. A pesar de ello, estos modelos son también objeto de controversia por la opacidad en sus predicciones y los procesos que las generan, especialmente por las implicaciones éticas de su uso en sectores críticos como la medicina o las finanzas. Para resolver este problema de la naturaleza de caja negra de estos modelos, surge el estudio de la inteligencia artificial explicable e interpretable. En este contexto se desarrollan los principales resultados de mi tesis doctoral, resumida en esta contribución, en la que se propone NN2Poly (Neural Networks to Polynomials), un método que permite representar redes neuronales ya entrenadas mediante polinomios. Los coeficientes de estos polinomios proporcionan explicabilidad al ser interpretados de igual manera que en un modelo de regresión, aportando una interpretación global del modelo. Además, al incluir interacciones de variables en los polinomios, permite interpretar estas relaciones, algo que la mayoría de los métodos de interpretabilidad no permiten, ya que se centran en la importancia de variables aisladas. La tesis se compone de contribuciones tanto metodológicas como aplicadas. Por un lado, el desarrollo del NN2Poly supone un método novedoso empleando series de Taylor y propiedades combinatorias; por otro lado, se implementa el mismo en un paquete open-source en R, con soporte para los frameworks más utilizados en deep learning. Además, se realizan extensivas simulaciones con datos sintéticos polinómicos, que permiten controlar los coeficientes obtenidos, así como con datos reales mostrando la aplicabilidad del método.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados