Ayuda
Ir al contenido

Dialnet


Vision-based gesture recognition in a robot learning by imitation framework

  • Autores: Juan Pedro Bandera Rubio
  • Directores de la Tesis: Luis Molina Tanco (dir. tes.), Juan Antonio Rodríguez Fernández (dir. tes.)
  • Lectura: En la Universidad de Málaga ( España ) en 2010
  • Idioma: inglés
  • ISBN: 9788497475761
  • Número de páginas: 268
  • Tribunal Calificador de la Tesis: Francisco Sandoval Hernández (presid.), Jesús Martínez Cruz (secret.), Ángel Pascual del Pobil y Ferré (voc.), Lakmal Seneviratne (voc.), Adrian Hilton (voc.)
  • Materias:
  • Enlaces
    • Tesis en acceso abierto en: RIUMA
  • Resumen
    • dc.description.abstract La robótica ha evolucionado en las últimas décadas hacia agentes cada vez más complejos, versátiles y capaces. Así, empiezan a aparecer robots capaces de trabajar en entornos cotidianos, dinámicos e imprevisibles. Es importante que dichos robots puedan interactuar de forma intuitiva y eficaz con las personas que encuentren en dichos entornos. Surge así el concepto de robot social, una de cuyas características principales es la capacidad de aprender de los demás. De entre los diferentes mecanismos de aprendizaje, el aprendizaje por imitación es una de las opciones más adecuadas para permitir a una persona suministrar fácilmente nuevos conocimientos al robot. Como quiera que el refuerzo verbal de las demostraciones realizadas en este tipo de aprendizaje puede no estar presente, es interesante contar con un mecanismo de aprendizaje por imitación basado puramente en visión. En esta Tesis, se presenta un sistema que implementa esta funcionalidad, permitiendo a un robot aprender gestos por imitación. La arquitectura de este sistema, en sí misma, supone la contribución fundamental de este trabajo, pues presenta alternativas y novedades tanto en su estructura como en la implementación de sus componentes. La entrada sensorial del sistema está limitada a la información suministrada por un único par estéreo. A partir de estos datos, se extraen los movimientos de la parte superior del cuerpo de la persona usando un sistema propuesto en esta Tesis. Una vez estos movimientos han sido segmentados en gestos, son representados mediante una codificación basada en características tanto locales como globales. Dicha codificación mixta es otra de las aportaciones de esta Tesis. Una vez codificados, los gestos percibidos son comparados con el repertorio de gestos aprendidos por el robot. Las características locales se comparan utilizando algoritmos de programación dinámica, y los resultados obtenidos se refuerzan con la comparación de las características globales. Los resultados de estas comparaciones son utilizados por un componente de aprendizaje para valorar si se debe cambiar o no el repertorio de gestos aprendidos. Para solventar situaciones confusas, un cierto grado de supervisión por parte del usuario humano puede ser requerido. Es importante destacar que todo el proceso anterior es independiente de las habilidades motoras del robot, lo que supone una importante variación de esta arquitectura frente a otras propuestas. Como consecuencia, las características físicas del robot no limitan la percepción, con lo que los movimientos de la persona que realiza las demostraciones pueden codificarse, reconocerse y aprenderse de manera más precisa. Sólo en aquellos casos en que se requiera que el robot imite físicamente los movimientos percibidos o aprendidos interviene el último módulo de la arquitectura, que traduce los gestos del espacio de movimientos de la persona al del robot, usando una estrategia combinada


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus

Opciones de compartir

Opciones de entorno