Ayuda
Ir al contenido

Dialnet


Resumen de Deep recurrent learning for heart sounds segmentation based on instantaneous frequency features

Alvaro Joaquin Gaona, Pedro David Arini

  • español

    En este trabajo se presenta un conjunto de técnicas bien conocidas definiendo un método automático para determinar los sonidos fundamentales en un fonocardiograma (PCG). Mostraremos una red neuronal recurrente capaz de segmentar segmentar un fonocardiograma en sus principales componentes, y una forma muy específica de extraer frecuencias instantáneas que jugarán un importante rol en el entrenamiento y validación del modelo propuesto. Más específicamente, el método propuesto involucra una red neuronal Long Short-Term Memory (LSTM) acompañada de la Transformada Sincronizada de Fourier (FSST) usada para extraer atributos en tiempo-frecuencia en un PCG. El presente enfoque fue evaluado con señales de fonocardiogramas mayores a 5 segundos y menores a 35 segundos de duración extraı́dos de bases de datos públicas. Se demostró, que con una arquitectura relativamente pequeña, un conjunto de datos acotado y una buena elección de las características, este método alcanza una eficacia cercana a la del estado del arte, con una sensitividad promedio de 89.5%, una precisión promedio de 89.3% y una exactitud promedio de 91.3%.

  • English

    In this work, a novel stack of well-known technologies is presented to determine an automatic method to segment the heart sounds in a phonocardiogram (PCG). We will show a deep recurrent neural network (DRNN) capable of segmenting a PCG into their main components and a very specific way of extracting instantaneous frequency that will play an important role in the training and testing of the proposed model. More specifically, it involves an Long Short-Term Memory (LSTM) neural network accompanied by the Fourier Synchrosqueezed Transform (FSST) used to extract instantaneous time-frequency features from a PCG. The present approach was tested on heart sound signals longer than 5 seconds and shorter than 35 seconds from freely-available databases. This approach proved that, with a relatively small architecture, a small set of data and the right features, this method achieved an almost state-of-the-art performance, showing an average sensitivity of 89.5%, an average positive predictive value of 89.3% and an average accuracy of 91.3%.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus