Objetivo: Nuestro objetivo es desarrollar un sistema robusto de reconocimiento de emociones basado en expresiones faciales, con especial énfasis en dos regiones clave: los ojos y la boca. Este artículo presenta un análisis exhaustivo del reconocimiento de emociones logrado mediante el examen de varias regiones faciales. Las expresiones faciales sirven como indicadores invaluables de las emociones humanas, siendo los ojos y la boca áreas particularmente expresivas. Al centrarnos en estas regiones, nuestro objetivo es capturar con precisión los matices de los estados emocionales.
Metodología: El algoritmo que ideamos no solo detecta rasgos faciales, sino que también aísla de forma autónoma las regiones de los ojos y la boca. Para aumentar la precisión de la clasificación, utilizamos varias técnicas de extracción y selección de características. Posteriormente, evaluamos el rendimiento de múltiples clasificadores, incluida la máquina de vectores de soporte (SVM), la regresión logística, la regresión bayesiana y los arboles de decisión, para identificar el enfoque más eficaz.
Resultados: Nuestra metodología experimental implico la utilización de varias técnicas de clasificación para evaluar el rendimiento en diferentes modelos. Entre ellos, SVM exhibió un rendimiento excepcional, con una impresionante tasa de precisión del 99,2 %. Este resultado sobresaliente supero el rendimiento de todos los demás métodos examinados en nuestro estudio. A través de un examen y una experimentación meticulosos, exploramos la eficacia de diferentes regiones faciales para transmitir emociones. Nuestro análisis abarca dos conjuntos de datos y metodologías de evaluación para garantizar una comprensión integral del reconocimiento de emociones.
Conclusiones: Nuestra investigación presenta evidencia convincente de que la región del ojo, cuando se analiza utilizando la máquina de vectores de soporte (SVM) junto con las características de textura, HoG y LBP, logra singularmente una tasa de precisión excepcional del 99,2 %. Este notable hallazgo subraya el importante potencial de priorizar únicamente los ojos para el reconocimiento preciso de las emociones. Al hacerlo, desafía el enfoque convencional de incluir toda el área facial para el análisis.
Objective: Our objective is to develop a robust emotion recognition system based on facial expressions, with a particular emphasis on two key regions: the eyes and the mouth. This paper presents a comprehensive analysis of emotion recognition achieved through the examination of various facial regions. Facial expressions serve as invaluable indicators of human emotions, with the eyes and mouth being particularly expressive areas. By focusing on these regions, we aim to accurately capture the nuances of emotional states.
Methodology: The algorithm we devised not only detects facial features but also autonomously isolates the eyes and mouth regions. To boost classification accuracy, we utilized various feature extraction and feature selection techniques. Subsequently, we assessed the performance of multiple classifiers, including Support Vector Machine (SVM), Logistic Regression, Bayesian Regression, and Decision Trees, to identify the most effective approach.
Results: Our experimental methodology involved the utilization of various classification techniques to assess performance across different models. Among these, SVM exhibited exceptional performance, boasting an impressive accuracy rate of 99.2 %. This outstanding result surpassed the performance of all other methods examined in our study. Through meticulous examination and experimentation, we explore the effectiveness of different facial regions in conveying emotions. Ouranalysis encompasses two datasets and evaluation methodologies to ensure a comprehensive understanding of emotion recognition capabilities.
Conclusions: Our investigation presents compelling evidence that the eye region, when analyzed using Support Vector Machine (SVM) along with textural, HoG, and LBP features, singularly achieves an outstanding accuracy rate of 99.2 %. This remarkable finding underscores the significant potential of prioritizing the eyes alone for precise emotion recognition. In doing so, it challenges the conventional approach of including the entire facial area for analysis.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados