La presente Tesis se centra en interfaces cerebrales basadas en señales electroencefalográficas (EEG) e interfaces oculares basadas en señales electrooculográficas (EOG) con el fin de controlar un brazo robot.
Para el diseño de las interfaces EOG se han desarrollado tres algoritmos de procesamiento que permiten obtener la dirección de la mirada, el parpadeo y, en uno de ellos, cuánto ha mirado la persona en una dirección para aplicarlo a un control en velocidad. Los tres algoritmos han sido testeados con interfaces gráficas, que han permitido el entrenamiento de los usuarios, y con un brazo robot real.
Para el diseño de la interfaz cerebro-robot EEG se ha desarrollado un sistema no invasivo y espontáneo. Se han diseñado diversos algoritmos de procesamiento y clasificadores capaces de diferenciar entre tres tareas mentales. Para evaluar esta interfaz los usuarios han entrenado en una interfaz gráfica y, posteriormente, han realizado trayectorias con un brazo robot.
Puesto que la interfaz cerebral sólo es capaz de diferenciar entre tres tareas mentales, es muy complicada la realización de tareas complejas con un brazo robot. Por ello, se ha diseñado una arquitectura de control compartido que combina tecnología de Identificación de Radiofrecuencia (RFID) con la interfaz cerebral. Esta arquitectura se ha evaluado realizando tareas de agarre y desplazamiento de objetos con un brazo robot real.
Otra alternativa diseñada para la realización de tareas complejas ha sido el desarrollo de una interfaz multimodal que combina las interfaces cerebral y ocular desarrolladas. De esta forma puede emplearse el movimiento de los ojos para realizar movimientos en el plano, mientras que la interfaz cerebral controla la altura, permitiendo realizar movimientos en un entorno tridimensional. La interfaz multimodal se ha evaluado primero en una interfaz gráfica y, a continuación, con un brazo robot real trasladando objetos en diferentes alturas.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados