David Valiente Garcia, Arturo Gil Aparicio , José María Marín López , Lorenzo Fernández Rojo, Óscar Reinoso García
En este artículo se describe una solución al problema de SLAM Simultaneous Localization and Mapping basado en una única cámara omnidireccional. Consideramos que el robot está equipado con un único sensor catadióptrico y que es capaz de extraer puntos de interés de las imágenes.
En esta solución, el mapa está representado por un conjunto de imágenes omnidireccionales y sus posiciones, teniendo cada imagen omnidireccional un conjunto de puntos característicos y de descriptores visuales asociados. Cuando el robot se mueve por el entorno captura imágenes omnidireccionales y extrae un conjunto de puntos de interés de ellas. A continuación, busca correspondencias con el resto de imágenes omnidireccionales existentes en el mapa. Si se encuentra un número suficiente de correspondencias entre las imágenes, se calcula una rotación y translación (salvo un factor de escala) entre ambas imágenes. A partir de estas medidas podemos deducir la localización del robot con respecto a las imágenes almacenadas en el mapa.
Se presentan resultados obtenidos en un entorno simulado que validan la idea presentada. Además, se presentan resultados obtenidos utilizando datos reales que demuestran la validez de la solución presentada.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados