Ir al contenido

Documat


Simulador inmersivo de visión protésica modelando estímulos espacio-temporales

  • Santos-Villafranca, Maria [1] ; Tomas-Barba, Julia [1] ; Pérez-Yus, Alejandro [1] ; Bermúdez-Cameo, Jesus [1] ; Guerrero, J.J. [1]
    1. [1] Universidad de Zaragoza

      Universidad de Zaragoza

      Zaragoza, España

  • Localización: XLIV Jornadas de Automática: libro de actas: Universidad de Zaragoza, Escuela de Ingeniería y Arquitectura, 6, 7 y 8 de septiembre de 2023, Zaragoza / coord. por José Manuel Andújar Márquez Árbol académico, Ramón Costa Castelló Árbol académico, Alejandro R. Mosteo, Vanesa Loureiro-Vázquez, Elisabet Estévez Estévez Árbol académico, David Muñoz de la Peña Sequedo Árbol académico, Carlos Vilas Fernández Árbol académico, Luis Enrique Montano Gella Árbol académico, Pedro Jesús Cabrera Santana, Raúl Marín Árbol académico, Eduardo Rocón de Lima Árbol académico, Manuel Gil Ortega Linares Árbol académico, Óscar Reinoso García Árbol académico, Luis Payá Castelló Árbol académico, 2023, ISBN 9788497498609, págs. 879-884
  • Idioma: español
  • Títulos paralelos:
    • Immersive prosthetic vision simulator modelling spatiotemporal stimuli
  • Enlaces
  • Resumen
    • español

      Recientes avances han demostrado que, en ciertos casos de deficiencia visual, la visión puede ser parcialmente restituida mediante prótesis visuales. Debido a sus limitaciones, surge el interés por desarrollar métodos de visión por computador para extraer información relevante del entorno y adaptarla a las prótesis. Para poder evaluar la eficacia de estos métodos, debido a la escasez de personas operadas, se utilizan simuladores de prótesis visuales, que permiten experimentar con personas de visión sana. En este trabajo, presentamos un nuevo simulador realista, integrado en un framework de robótica, que permite probar distintos modos de representación mediante gafas de realidad virtual. Una de las principales novedades es la inclusión de un modelo temporal, inspirado en experimentos con pacientes reales, para transmitir la dimensión del tiempo en la generación de estímulos visuales. Además, permite la inmersión total del usuario en un entorno virtual en el que se ha integrado una red neuronal de segmentación semántica para ayudar a detectar objetos y personas.

    • English

      Recent advances have shown that, in certain cases of visual impairment, vision can be partially restored by means of visual prostheses. Due to its limitations, there is interest in developing computer vision methods to extract relevant information from the environment and adapt it to the prosthesis. In order to evaluate the effectiveness of these methods, due to the scarcity of operated people, visual prosthesis simulators are used, which allow experimenting with healthy sighted people. In this work, we present a new realistic simulator, integrated in a robotics framework, which allows testing different modes of representation through virtual reality goggles. One of the main novelties is the inclusion of a temporal model, inspired by experiments with real patients, to convey the dimension of time in the generation of visual stimuli. In addition, it allows total immersion of the user in a virtual environment in which a semantic segmentation neural network has been integrated to help detect objects and people.


Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno