Los modelos de Aprendizaje Automático como las Redes Neuronales Profundas son actualmente elnúcleo de una amplia gama de tecnologías aplicadas en tareas críticas, como el reconocimiento facial o laconducción autónoma, en las que tanto la capacidad predictiva como la fiabilidad son requisitosfundamentales. Sin embargo, estos modelos pueden ser fácilmente engañados por inputs manipulados deforma imperceptible para el ser humano, denominados ejemplos adversos (adversarial examples), lo queimplica una brecha de seguridad que puede ser explotada por un atacante con fines ilícitos. Dado queestas vulnerabilidades afectan directamente a la integridad y fiabilidad de múltiples sistemas que,progresivamente, están siendo desplegados en aplicaciones del mundo real, es crucial determinar elalcance de dichas vulnerabilidades para poder garantizar así un uso más responsable, informado y segurode esos sistemas. Por estos motivos, esta tesis doctoral tiene como objetivo principal investigar nuevasnociones de ataques adversos y vulnerabilidades en las Redes Neuronales Profundas. Como resultado deesta investigación, a lo largo de esta tesis se exponen nuevos paradigmas de ataque que exceden oamplían las capacidades de los métodos actualmente disponibles en la literatura, ya que son capaces dealcanzar objetivos más generales, complejos o ambiciosos. Al mismo tiempo, se exponen nuevas brechasde seguridad en casos de uso y escenarios en los que las consecuencias de los ataques adversos no habíansido investigadas con anterioridad. Nuestro trabajo también arroja luz sobre diferentes propiedades deestos modelos que los hacen más vulnerables a los ataques adversos, contribuyendo a una mejorcomprensión de estos fenómenos.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados