Colombia
La estimación precisa de distancias es un desafío crítico en robótica móvil, especialmente en entornos dinámicos donde la incertidumbre de los sensores puede afectar la navegación y la evasión de obstáculos. Este artículo propone un método de fusión sensorial no lineal basado en Regresión de Soporte Vectorial (SVR) para mejorar la estimación de distancias, utilizando un sistema de bajo costo compuesto por una cámara Logitech C270 con marcadores fiduciales ArUco, un sensor ultrasónico HC-SR04, un microcontrolador ESP32 y el middleware ROS2. La configuración experimental recopiló datos de 20 a 400 cm en intervalos de 10 cm, incorporando oclusiones controladas para simular condiciones reales. El modelo SVR, optimizado con un núcleo de función de base radial (C=10, gamma=0.5, epsilon=0.5), fusiona datos visuales y acústicos para mejorar la robustez y precisión. Los resultados de las pruebas de validación (30-200 cm) muestran que las estimaciones de distancia fusionadas alcanzan un error absoluto promedio de 1.25 cm en condiciones normales, con un pico de error cuadrático medio de 35.44 cm² a 30 cm, indicando limitaciones en rangos cortos. Bajo oclusión, la fusión reduce los errores de los sensores individuales (por ejemplo, 19.81 cm para el sonar y 35.08 cm para la cámara a 100 cm) a un promedio de 32.49 cm. Las principales contribuciones incluyen un enfoque de fusión económico que incrementa la robustez en condiciones adversas y supera los métodos de un solo sensor. Futuras investigaciones explorarán técnicas de aprendizaje profundo y sensores adicionales para abordar los desafíos en rangos cortos y oclusiones, siguiendo tendencias en integración multimodal de sensores para navegación autónoma.
Accurate distance estimation is a critical challenge in mobile robotics, particularly in dynamic environments where sensor uncertainties can impair navigation and obstacle avoidance. This paper proposes a nonlinear sensor fusion method based on Support Vector Regression (SVR) to enhance distance estimation using a low- cost setup comprising a Logitech C270 camera with ArUco fiducial markers and an HC-SR04 ultrasonic sensor, integrated via an ESP32 microcontroller and ROS2 middleware. The experimental setup involved collecting data from 20 to 400 cm with 10 cm intervals, incorporating controlled occlusions to simulate real-world conditions. The SVR model, optimized with a radial basis function kernel (C=10, gamma=0.5, epsilon=0.5), fuses visual and acoustic data to improve robustness and precision. Results from validation experiments (30-200 cm) show that the fused distance estimates achieve an average absolute error of 1.25 cm in normal conditions, with a peak mean squared error of 35.44 cm² at 30 cm, indicating limitations at short ranges. Under occlusion, the fusion mitigates errors from individual sensors (e.g., 19.81 cm for sonar, 35.08 cm for camera at 100 cm), reducing the average error to 32.49 cm. The main contributions include a cost-effective fusion approach that enhances distance estimation robustness in adverse conditions and outperforms single-sensor methods. Future work will explore deep learning techniques and additional sensors to address short-range and occlusion challenges, aligning with trends in multimodal sensor integration for autonomous navigation.
© 2001-2026 Fundación Dialnet · Todos los derechos reservados