Ir al contenido

Documat


Resumen de Selección diferenciada del conjunto de entrenamiento en redes de neuronas mediante aprendizaje retardado

José M. Valls Ferrán Árbol académico

  • Las Redes de Neuronas de Base Radial (RNBR) son aproximadores uni versales, en el sentido de que son capaces de aproximar, con el grado de precisión deseado, cualquier función continua multivariable, siempre que dispongan de un número suficiente de unidades ocultas. Estas redes se caracterizan por poseer características locales, ya que sus neuronas utilizan funciones de activación cuyo valor decrece exponencialmente al alejarse el patrón de entrada de sus centros. Las RNBR son modelos robustos frente a los errores en los datos y su entrenamiento es muy rápido en comparación con otros tipos de redes de neuronas. El principal inconveniente de las RNBR reside en su deficiente capacidad de generalización. Esto se debe a que es necesario un gran número de neuronas ocultas para poder construir una aproximación a la función objetivo mediante la suma de aproximaciones locales, especialmente si la dimensión del espacio de entrada es alta; este elevado número de neuronas ocultas puede influir negativamente en la capacidad de generalización. Se ha comprobado que el nivel de generalización de las redes de neuronas depende significativamente de la calidad de los datos de entrenamiento, y algunos de esos datos pueden ser redundantes o irrelevantes. Con una cuidadosa selección de los patrones de entrenamiento se podría mejorar la capacidad de generalización. Por otra parte, los métodos de aprendizaje retardado o “perezoso” pue den tener una buena capacidad de generalización pues construyen las repre sentaciones de la función objetivo de forma local dependiendo de la nueva muestra de test, pero su precisión en la generalización depende significativa mente del número de patrones que se seleccionen y de la función de distancia utilizada. El objetivo principal de esta tesis consiste en mejorar la capacidad de generalización de las RNBR utilizando un enfoque basado en los métodos de aprendizaje retardado. Para ello, se propone un método de aprendizaje que selecciona automáticamente, del conjunto de entrenamiento, los patrones más apropiados para aproximar cada nueva muestra de test. Este método sigue una estrategia de aprendizaje perezoso, en el sentido de que construye aproximaciones locales centradas alrededor de la nueva muestra. También se pretende que este método sea general, aplicable indepen dientemente del modelo de red de neuronas elegido; de este modo, se podrá aplicar a otros tipos de redes, como el perceptron multicapa. Para evaluar el modelo propuesto, se aplica a diferentes dominios que son representativos de problemas de aproximación de funciones, de predicción de series temporales y de clasificación. Los resultados obtenidos se comparan con los de los métodos de entrenamiento tradicionales, donde se entrenan las RNBR con todas las muestras de entrenamiento disponibles. --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------


Fundación Dialnet

Mi Documat