Ir al contenido

Documat


Reconeixement automàtic explicable per a la gent gran

  • Francesc Xavier Gayà Morey [1] ; Cristina Suemay Manresa Yee [1] ; José María Buades Rubio [1]
    1. [1] Universitat de les Illes Balears

      Universitat de les Illes Balears

      Palma de Mallorca, España

  • Localización: Anuari de l'envelliment: Illes Balears, ISSN 2174-7997, Año 2023, 2023, págs. 390-404
  • Idioma: catalán
  • Enlaces
  • Resumen
    • español

      A medida que la esperanza de vida aumenta a nivel mundial, el cuidado de las personas mayores se está convirtiendo en un asunto cada vez más preocupante, especialmente cuando esas personas viven solas. Para paliar este problema, es necesario más trabajo en tecnologías asistenciales, como forma de garantizar la seguridad y el bienestar de este colectivo. En este trabajo, se presenta una contribución en esta dirección: un sistema automático de reconocimiento de acciones humanas basado en aprendizaje profundo, especialmente diseñado para reconocer las actividades diarias de la población mayor, en su propio ambiente doméstico.

      El aprendizaje profundo trata de entrenar un modelo estadístico complejo para que aprenda a desarrollar una tarea concreta sencillamente a partir de una serie de datos, sin necesidad de intervenir en cómo debe hacerse. En el caso de este trabajo, hemos elegido una red neuronal con rendimiento estado de la cuestión, y la hemos entrenado con un conjunto de datos compuesto por vídeos de gente mayor realizando actividades del día a día en su propio ambiente doméstico.

      Además, como paso adicional en la validación del modelo entrenado y para ayudar a futuros usuarios del sistema a entender las decisiones de dicho modelo, hemos explicado los resultados adaptando LIME (una técnica para entender el funcionamiento de un modelo de aprendizaje profundo) para que pueda funcionar con entrada de vídeo. Esperamos que con el uso de un sistema como el propuesto se puedan descubrir conductas extrañas (como repeticiones u omisiones) o situaciones peligrosas (como caídas), y actuar de manera acorde para ayudar a las personas mayores.

    • català

      A mesura que l’esperança de vida augmenta en l’àmbit mundial, la cura de la gent gran es converteix en un assumpte cada vegada més preocupant, especialment quan aquesta gent viu sola. Per pal·liar aquest problema, és necessari més treball en tecnologies assistencials, com a manera de garantir la seguretat i el benestar d’aquest col·lectiu. En aquest treball, es presenta una contribució en aquesta direcció: un sistema automàtic de reconeixement d’accions humanes basat en l’aprenentatge profund, especialment dissenyat per reconèixer les activitats diàries de la població de gent gran, en el seu propi ambient domèstic.

      L’aprenentatge profund tracta d’entrenar un model estadístic complex perquè aprengui a dur a terme una tasca concreta senzillament a partir d’una sèrie de dades, sense necessitat d’intervenir en la manera com s’ha de fer. En el cas d’aquest treball, hem elegit una xarxa neuronal amb rendiment estat de la qüestió, i l’hem entrenada amb un conjunt de dades compost per vídeos de gent gran que fan activitats del dia a dia en el seu propi ambient domèstic.

      A més, com a passa addicional en la validació del model entrenat i per ajudar futurs usuaris del sistema a entendre les decisions del dit model, hem explicat els resultats adaptant LIME (una tècnica per entendre el funcionament d’un model d’aprenentatge profund) perquè pugui funcionar amb una entrada de vídeo. Esperem que amb l’ús d’un sistema com el proposat es puguin descobrir conductes estranyes (com repeticions o omissions) o situacions perilloses (com caigudes), i actuar-hi per ajudar la gent gran.

  • Referencias bibliográficas
    • Bertasius, G., Wang, H., i Torresani, L. (2021). Is Space-Time Attention All You Need for Video Understanding? arXiv.
    • Bloom, D. E., i Luca, D. L. (2016). The Global Demography of Aging: Facts, Explanations, Future. A J. Piggott i A. Woodland (Eds.), Handbook...
    • MMAction 2 Contributors. (2020). OpenMMLab’s Next Generation Video Understanding Toolbox and Benchmark. https://github.com/open-mmlab/mmaction2
    • Dai, X., Wu, M., Davidson, B., Mahoor, M., i Zhang, J. (2013). Image-Based Fall Detection with Human Posture Sequence Modeling. 2013 IEEE...
    • Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., Dehghani, M., Minderer, M., Heigold, G., Gelly, S.,...
    • Jang, J., Kim, D., Park, C., Jang, M., Lee, J., i Kim, D. (2020). ETRI-Activity3D: A Large-Scale RGB-D Dataset for Robots to Recognize Daily...
    • Kay, W., Carreira, J., Simonyan, K., Zhang, B., Hillier, C., Vijayanarasimhan, S., Viola, F., Green, T., Back, T., Natsev, P., Suleyman, M.,...
    • Khodabandehloo, E., Riboni, D., i Alimohammadi, A. (2021). HealthXAI: Collaborative and explainable AI for supporting early diagnosis of cognitive...
    • Ribeiro, M. T., Singh, S., i Guestrin, C. (2016). «Why Should I Trust You?»: Explaining the Predictions of Any Classifier. arXiv.
    • Vaswani, A., Brain, G., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., i Polosukhin, I. (2017). Attention Is...

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno