Ayuda
Ir al contenido

Dialnet


Estudio comparativo de los algoritmos backpropagation (bp) y multiple linear regression (mlr) a través del análisis estadístico de datos aplicado a redes neuronales artificiales

    1. [1] Universidad Nacional de Chimborazo

      Universidad Nacional de Chimborazo

      Riobamba, Ecuador

  • Localización: Boletín Redipe, ISSN-e 2256-1536, Vol. 9, Nº. 3, 2020 (Ejemplar dedicado a: Language, mathematics and educational inclusion), págs. 144-152
  • Idioma: español
  • Títulos paralelos:
    • Backpropagation (BP) and Multiple Linear Regression (MLR) algorithms comparative study of the through statistical data analysis applied to artificial neural networks
  • Enlaces
  • Resumen
    • español

      El objetivo de la investigación es comparar el algoritmo Backpropagation desarrollado por el usuario bajo software libre Java y el algoritmo Multiple Linear Regression, dicha comparación demanda del análisis estadístico decriptivo basado en redes neuronales artificiales. Se utilizó específicamente dos modelos de algoritmos de predicción aplicados a 451 patrones o registros a procesar que están repartidos en las primeras 401 filas para entrenamiento de la red neuronal y los otros 50 registros para validación y prueba, conformado por  4 variables de entrada (Height above sea level, Fall, Net fall, Flux) y 1 variable a predecir (Power turbine), para las diferentes pruebas los parámetros de entrenamiento y selección con los mejores resultados son: Architecture of the neural network, Type of scaling of data, Initial range of weight and thresholds, Learning rate and Momentum, Batched / online, Number of training epochs. Entre los resultados de comparación de los algoritmos analizados se determinó que el error en mayor iteracciones es menor que son respuestas de los 50 patrones de prueba. En el algoritmo Multiple Linear Regression  la variable real es el valor de la variable a predecir, esta variable es la suministrada a predecir por el usuario y es el valor que se predijo de la red neuronal, la variable prediction es la diferencia que se hace de la resta de los anteriores errores y se lo realiza para calcular el error y el total error es el valor mínimo a obtener que representa el error calculado de todos los datos, es decir el porcentaje de error de la red neuronal de back-propagation. Entre más bajo es este porcentaje mejor será la red, porque menor será su porcentaje de error.

    • English

      The objective of the research is to compare the Backpropagation algorithm developed by the user under free Java software and the Multiple Linear Regression algorithm, the comparison demands of the descriptive statistical analysis based on artificial neural network. Specifically, two models of prediction algorithms applied to 451 patterns or records to be processed that are distributed in the first 401 rows for training of the neural network and the other 50 records for validation and testing, consisting of 4 input variables (Height above sea level, Fall, Net fail, Flux) and 1 variable to predict (Power turbine), for the different tests the training and selection parameters with the best results are: Architecture of the neural network, Type of scaling of data, Initial range of weight and thresholds, Learning rate and Momentum, Batched / online, Number of training epochs. Among the comparison results of the algorithms analyzed, it was determined that the error in the highest iterations is less than the responses of the 50 test patterns. In the Multiple Linear Regression algorithm the real variable is the value of the variable to be predicted, this variable is the one provided to be predicted by the user and is the predicted value of the neural network, the variable prediction is the difference that is made the subtraction of the previous errors and it is done to calculate the error and the total error is the minimum value to be obtained which represents the calculated error of all the data, that is, the error percentage of the back-propagation neural network. The lower this percentage is, the better the network will be, because the lower the percentage of error.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno