Yerai Berenguer Fernández, Luis Payá Castelló, Mónica Ballesta Galdeano, Luis Miguel Jiménez García, Sergio Cebollada López, Óscar Reinoso García
Este trabajo presenta un algoritmo SLAM para estimar la posición y orientación de un robot móvil al mismo tiempo que crea un mapa del entorno. Utiliza solo la información visual proporcionada por un sistema catadióptrico montado en el robot, formado por una cámara que apunta hacia un espejo convexo, que proporciona al robot imágenes omnidireccionales que contienen información con un campo de visión de 360 grados alrededor del eje central del espejo. Cada imagen omnidireccional adquirida por el robot se describe utilizando descriptores de apariencia global, que permiten ejecutar nuestro algoritmo en tiempo real gracias a su compacidad. El método consta de tres pasos diferentes. En primer lugar, el robot calcula su posición y orientación, y crea un nuevo nodo en el mapa, el cual esta formado por nodos conectados entre ellos. En segundo lugar, detecta cierres de bucle entre el nuevo nodo y los nodos del mapa. Finalmente, el mapa se optimiza utilizando un algoritmo de optimización y los cierres de bucle detectados. Se han utilizado dos conjuntos diferentes de imágenes para probar la eficacia del método, los cuales fueron capturados en dos entornos reales. Los resultados de los experimentos muestran la eficacia de nuestro método.
© 2001-2024 Fundación Dialnet · Todos los derechos reservados