En esta memoria trataremos el caso de una función objetiva arbitraria a la que tan solo exigiremos la continuidad, y daremos algoritmos de tipo estocásticos que resuelven el problema de la optimización global entera en los términos que se especificarán, que se ... caracterizan por su fácil implementación en un microordenador y por la bondad de las estimaciones que faciliten empleando para ello una pequeña fracción de muestreo.Hemos divido la memoria en cuatro capítulos.En el Capítulo I estudiamos los algoritmos secuenciales estocásticos, la finalidad de éstos es obtener una sucesión de puntos enteros factibles cuyos valores funcionales converjan al mínimo global entero. Para ello damos la estructura de un algoritmo genérico e imponiendo ciertas condiciones estudiamos la convergencia en probabilidad del mismo. Según aquellas obtenemos algoritmos locales o globales, cuya diferencia primordial radica en que los primeros centran su búsqueda en zonas reducidas de la región factible y los segundos lo hacen sobre zonas más extensas. Finalmente en este capítulo consideramos dos versiones del algoritmo genérico, a saber, el algoritmo uniforme y el algoritmo reticular.En el Capítulo II tratamos los algoritmos de asignación. Se parte de un algoritmo de búsqueda global entera T y se pretende mejorar su efectividad reduciendo la zona de búsqueda. Esto lo conseguimos introduciendo una partición sobre la región y unas probabilidades sobre cada una de las partes para a continuación determinar la forma óptima de asignar el número total de puntos a muestrear. Esto constituye lo que hemos denominado el algoritmo combinado.Los resultados teóricos que obtenemos son válidos para el caso particular de tomar como T al algoritmo uniforme, pues para éste podemos determinar las probabilidades de localizar al mínimo global. No obstante, usando las asignaciones óptimas que se obtienen para el caso uniforme, el algoritmo combinado ofrece excelentes resultados como ponemos de manifiesto en el Capítulo IV. En el Capítulo III consideramos la resolución del problema de optimización global entero desde otra perspectiva. Bajo la hipótesis de que se sabe resolver el problema continuo abordamos la resolución del problema entero. Para ello asociamos a éste un problema continuo cuyo mínimo global es precisamente el mínimo global entero que buscamos. Esto se consigue añadiéndole a la función objetivo una función penalizadora que depende de un parámetro. Al incrementar este parámetro los mínimos globales continuos de esta nueva función tienden a acercarse al mínimo global entero de la función objetivo original.En el último Capítulo presentamos los resultados numéricos que hemos obtenido al comparar los algoritmos estudiados en los dos primeros capítulos de la memoria. Llegamos a la conclusión de que el algoritmo más eficiente es el algoritmo combinado. Con él se obtienen estimaciones muy próximas al mínimo global entero de todas las funciones test consideradas, tomando para ello una pequeñas fracción de muestreo.Finalmente presentemos la línea de investigación que seguiremos en el futuro basada en la mejora del tipo de muestreo que se realiza.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados