A pesar de que se han ideado una gran cantidad de algoritmos para entrenar los pesos de una red neuronal a través de la presentación de ejemplos para una topología fija, estos algoritmos tienen el problema de que suelen caer en óptimos locales. La obtención de buenos resultados depende en gran medida de los parámetros de aprendizaje y de los pesos iniciales, así como de la topología de la red.
Los algoritmos evolutivos han demostrado ser una clase de métodos de búsqueda muy efectivos y robustos para localizar zonas del espacio de búsqueda donde hay alta probabilidad de encontrar buenas soluciones, aunque dicho espacio sea grande y contenga múltiples óptimos locales. La aplicación de los algoritmos evolutivos en la optimización de redes neuronales artificiales se justifica por el menor coste computacional, en comparación con los métodos de prueba y error, y la mayor robustez frente a los métodos constructivos/destructivos.
Las técnicas de búsqueda global, tales como los algoritmos evolutivos, analizan amplias zonas del espacio para determinar dónde se encuentran buenas soluciones. En general son menos eficientes que las técnicas de búsqueda local encontrando óptimos locales, por lo que lo más adecuado es dejar que el algoritmo evolutivo seleccione soluciones iniciales en buenas áreas del espacio de búsqueda, para posteriormente localizar los óptimos locales en dichas áreas.
Este trabajo lleva a cabo una revisión de las diferentes formas en que se han combinado algoritmos evolutivos y redes neuronales artificiales para optimizar los diferentes parámetros de diseño de estas últimas, al tiempo que justifica los operadores genéticos específicos utilizados en dichos métodos.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados