Ir al contenido

Documat


Creación de un modelo visual del entorno basado en imágenes omnidireccionales

  • A. Gil [1] ; D. Valiente [1] ; O. Reinoso [1] ; J.M. Marín [1]
    1. [1] Universidad Miguel Hernández de Elche

      Universidad Miguel Hernández de Elche

      Elche, España

  • Localización: Revista iberoamericana de automática e informática industrial ( RIAI ), ISSN-e 1697-7920, Vol. 9, Nº. 4, 2012, págs. 441-452
  • Idioma: español
  • DOI: 10.1016/j.riai.2012.09.011
  • Títulos paralelos:
    • Construction of a visual model of the environment based on omnidirectional images
  • Enlaces
  • Resumen
    • español

      En este artículo abordamos el problema de la construcción del mapa visual de un entorno mediante un robot móvil, ubicándose, por tanto, en el ámbito del problema de SLAM (Simultaneous Localization and Mapping). La solución presentada en este artículo se fundamenta en el uso de un conjunto de imágenes para representar el entorno. De esta manera, la estimación del mapa se plantea como el cálculo de la posición y orientación de un conjunto de vistas omnidireccionales obtenidas del entorno. La idea desarrollada se separa de la concepción habitual de mapa visual, en la que el entorno está representado mediante un conjunto de puntos tridimensionales definidos respecto de un sistema de referencia. En el caso presentado, se considera que el robot está equipado con un único sensor visual omnidireccional que permite detectar un conjunto de puntos de interés de las imágenes que, a continuación, son representados mediante un descriptor visual. El proceso de construcción del mapa se puede resumir de la siguiente manera: cuando el robot se mueve por el entorno captura imágenes omnidireccionales y extrae un conjunto de puntos de interés de cada una de ellas. A continuación, se buscan correspondencias entre la imagen capturada y el resto de imágenes omnidireccionales existentes en el mapa. Si el nú mero de correspondencias encontradas entre la imagen actual y alguna de las imágenes del mapa es suficiente, se calcula una transformación consistente en una rotación y translación. A partir de estas medidas podemos deducir la localización del robot con respecto a las imágenes almacenadas en el mapa. Se presentan resultados obtenidos en un entorno simulado que validan la idea presentada. Además, se han obtenido resultados experimentales utilizando datos reales que demuestran la validez de la solución presentada.

    • English

      This paper deals with the problem of Simultaneous Localization and Mapping (SLAM). The solution presented is based on the utilisation of a set of images to represent the environment. In this way, the estimation of the map considers the computation of the position and orientation of a set of omnidirectional views captured from the environment. The proposed idea sets apart from the usual representation of a visual map, in which the environment is represented by a set of three dimensional points in a common reference system. Each of these points is commonly denoted as visual landmark. In the case presented here, the robot is equipped by a single omnidirectional visual sensor that allows to extract a number of interest points in the images, each one described by a visual descriptor. The map building process can be summed up in the following way: as the robot traverses the environment, it captures omnidirectional images and extracts a set of interest points from each one. Next, a set of correspondences is found between the current image and the rest of omnidirectional images existing in the map. When the number of correspondences found is enough, a transformation is computed, consisting of a rotation and a translation (up to an unknown scale factor). In the paper we show a method that allows to build a map while localizing the robot using these kind of observations. We present results obtained in a simulated environment that validate the proposed idea. In addition, we present experimental results using real data that prove the suitability of the solution.

  • Referencias bibliográficas
    • Andrew J. Davison, A. J., Gonzalez Cid, Y., Kita, N., 2004. Improving data association in vision-based SLAM. In: Proc. of IFAC/EURON. Lisboa,...
    • Aracil, R., Balaguer, C., Armada, M., 2008. Robots de servicio. RIAI (Revista Iberoamericana de Automática e Informática Industrial) 5(2),...
    • Ballesta, M., Gil, A., Reinoso, O., Úbeda, D., 2010. Análisis de detectores y descriptores de características visuales en slam en entornos...
    • Bay, H., Tuytelaars, T., Van Gool, L., 2006. SURF: Speeded up robust features. In: Proc. of the ECCV. Graz, Austria.
    • Bunschoten, R., Krose, B., 2003. Visual odometry from an omnidirectional vision system. In: Proc. of the ICRA.
    • Civera, J., Davison, A. J., Mart´ınez Montiel, J. M., 2008. Inverse depth parametrization for monocular slam. IEEE Trans. on Robotics.
    • Davison, A. J., Murray, D. W., 2002. Simultaneous localisation and mapbuilding using active vision. IEEE Trans. on PAMI.
    • Gil, A., Martinez-Mozos, O., Ballesta, M., Reinoso, O., 2010. A comparative evaluation of interest point detectors and local descriptors for...
    • Gil, A., Reinoso, O., Martínez-Mozos, O., Stachniss, C., Burgard, W., 2006. Improving data association in vision-based SLAM. In: Proc. of...
    • Grisetti, G., Stachniss, C., Grzonka, S., Burgard, W., 2007. A tree parameterization for efficiently computing maximum likelihood maps using...
    • Harris, C. G., Stephens, M., 1988. A combined corner and edge detector. In: Proc. of Alvey Vision Conference. Manchester, UK.
    • Hartley, R., Zisserman, A., 2004. Multiple View Geometry in Computer Vision. Cambridge University Press.
    • Jae-Hean, K., Myung Jin, C., 2003. Slam with omni-directional stereo vision sensor. In: Proc. of the IROS. Las Vegas (Nevada).
    • Joly, C., Rives, P., 2010. Bearing-only SAM using a minimal inverse depth parametrization. In: Proc. of ICINCO. Funchal, Madeira (Portugal).
    • Kawanishi, R., Yamashita, A., Kaneko, T., 2008. Construction of 3D environment model from an omni-directional image sequence. In: Proc. of...
    • Lowe, D., 2004. Distinctive image features from scale-invariant keypoints. International Journal of Computer Vision.
    • Montemerlo, M., Thrun, S., Koller, D., Wegbreit, B., 2002. Fastslam: a factored solution to the simultaneous localization and mapping problem....
    • Neira, J., Tardós, J. D., 2001. Data association in stochastic mapping using the joint compatibility test. IEEE Trans. on Robotics and Automation.
    • Nister, D., 2003. An efficient solution to the five-point relative pose problem. In: Proc. of the IEEE CVPR. Madison, USA.
    • Nistér, D., 2005. Preemptive RANSAC for live structure and motion estimation. Machine Vision and Applications.
    • Paya, L., Fernández, L., Reinoso, O., Gil, A., Úbeda, D., 2009. Appearance-based dense maps creation: Comparison of compression techniques...
    • Scaramuzza, D., Fraundorfer, F., Siegwart, R., 2009. Real-time monocular visual odometry for on-road vehicles with 1-point RANSAC. In: Proc....
    • Scaramuzza, D., Martinelli, A., Siegwart, R., 2006. A toolbox for easily calibrating omnidirectional cameras. In: Proc. of the IROS. Beijing,...
    • Stachniss, C., Grisetti, G., Haehnel, D., Burgard, W., 2004. Improved Rao-Blackwellized mapping by adaptive sampling and active loop-closure....
    • Stewenius, H., Engels, C., Nister, D., 2006. Recent developments on direct relative orientation. ISPRS Journal of Photogrammetry and Remote...

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno