Ir al contenido

Documat


Evaluación de descriptores locales en localización visual con imágenes ojo de pez

  • María Flores [1] ; David Valiente [1] ; Arturo Gil [1] Árbol académico ; Adrián Peidró [1] ; Oscar Reinoso [1] Árbol académico ; Luis Payá [1] Árbol académico
    1. [1] Universidad Miguel Hernández
  • Localización: XLII Jornadas de Automática: libro de actas, Castellón, 1 a 3 de septiembre de 2021, 2021, ISBN 978-84-9749-804-3, págs. 507-514
  • Idioma: español
  • Títulos paralelos:
    • Evaluation of local descriptors in visual location with fisheye images
  • Enlaces
  • Resumen
    • español

      Un robot móvil debe ser capaz de localizarse en el entorno en el que se encuentra para navegar de forma autónoma. Para tal fin, en este trabajo se utiliza un método denominado Adaptive Probability-Oriented Feature Matching (APOFM). Este algoritmo consiste en obtener la pose relativa a partir de información visual de un par de imágenes, como un algoritmo de odometría visual. La principal característica de este método es que realiza un filtrado de los puntos característicos detectados utilizando información proporcionada por un modelo 3D del entorno. En dicho modelo, cada punto tiene asignada una probabilidad de existencia de correspondencia. Con esto se consigue un menor número de falsos positivos. Los objetivos principales de este trabajo son evaluar este método con distintos tipos de características locales y comparar su efectividad con un método de odometría visual estándar, además de analizar los resultados empleando imágenes tomadas con una cámara con lente de ojo de pez. Tras los distintos experimentos,la solución más precisa al estimar la pose relativa se ha obtenido con el método APOFM extrayendo la información visual con ORB.

    • English

      To navigate autonomously, a mobile robot must be able to localize itself in the environment.To that end, in this work, a method called Adaptive Probability-Oriented Feature Matching (APOFM) is used. This algorithm obtains the relative pose from visual information (a pair of images), as a visual odometry algorithm. The main feature of this method is that it performs a filtering of the feature points using the information provided by a 3D model of the environment, in which each point is assigned a probability of existence of correspondence. This results in fewer false positives. The main objectives of this work are to evaluate this method with different types of local features and compare its effectiveness with the standard visual odometry method, and also to analyze the results using images taken by a fisheye lens camera. After the different experiments, the most precise solution estimating the relative pose was obtained with the APOFM method, extracting the visual information with ORB.


Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno