Ayuda
Ir al contenido

Dialnet


Resumen de Decodificación de la imaginación motora del pedaleo a partir de señales electroencefalográficas

Javier V. Juan, Eduardo Iáñez Martínez, Mario Ortiz García, Jesús Tornero, José María Palazón Azorín

  • español

    El principio clave de la decodificación de la imaginación motora (MI, Motor Imagery) para las Interfaces Cerebro-Máquina (BMIs, Brain-Machine Interfaces) basadas en electroencefalogramas (EEG) consiste en extraer características discriminativas de tarea de los dominios espectrales, espaciales y temporales de manera conjunta y eficiente. A este respecto, la no estacionalidad de las señales EEG y su alta relación señal/ruido representan un desafío para el diseño avanzado de algoritmos de decodificación efectivos. Por su parte estos algoritmos permiten el control de dispositivos en tareas de neurorrehabilitación, activando la corteza motora del paciente y contribuyendo a su recuperación. Por estas razones, este estudio ha optimizado un algoritmo de decodificación de MI basado en características espaciales, el cual ha sido probado en dos sujetos sanos alcanzando rangos de acierto de hasta el 80 %, lo que supone una mejora respecto a estudios previos.

  • English

    The fundamental principle behind the decoding of motor imagery (MI) for electroencephalogram (EEG)-based Brain-Machine Interfaces (BMIs) is to effectively and simultaneously extract task discriminative features from spectral, spatial, and temporal domains. In¡ this regard, the non-stationarity of EEG signals and their high signal-to noise ratio pose challenges for the advanced design of effective decoding algorithms. These algorithms enable device control in neurorehabilitation tasks by activating the motor cortex of patients, contributing to their neural disease recovery. For these reasons, this study has optimized a spatial feature-based MI decoding algorithm, which has been tested on two able-bodied subjects, achieving accuracy rates of up to 80 %, which represents an improvement compared to previous studies.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus