En ésta tesis se ha diseñado un nuevo criterio para la selección del modelo de red neuronal Cascada-Correlación que controla íntegramente el tamaño del conjunto de entrenamiento, la complejidad del modelo y la magnitud de los pesos para obtener modelos con buena capacidad de generalización. Para esto se parte del análisis de los problemas que afectan la capacidad de generalización de la red: el primero relacionado con que la cantidad de datos del conjunto de entrenamiento contenga la información suficiente para reproducir el proceso generador de datos, el segundo con la cantidad de parámetros adecuada para representar el proceso generador de datos, y tercero la alta fluctuación de los parámetros; estos aspectos inciden en que el entrenamiento de la red sea un problema mal condicionado y se incurra en el sobreajuste. Para solucionar este tipo de problemas Tikhonov en (1963) propuso una solución matemática llamada Regularización; sin embargo, aplicar este tipo de solución es complejo dado que requiere determinar el parámetro de cuánto penalizar y el término de cómo penalizar y las propuestas que se han presentado han mostrado ser poco efectivas. Entonces, se ha propuesto desde un punto de vista conceptual y experimental cómo seleccionar efectivamente el valor del parámetro de regularización y dos nuevas ecuaciones de regularización con base en la varianza y la desviación estándar de los parámetros. Experimentalmente se mostró, al pronosticar siete series de tiempo, que la propuesta realizada es superior que modelos tradicionales de la literatura y que permite controlar efectivamente los problemas comentados y seleccionar el modelo adecuado que represente efectivamente a la serie de tiempo.
© 2001-2025 Fundación Dialnet · Todos los derechos reservados