La Inteligencia Artificial, y en concreto el Aprendizaje Profundo (en inglés Deep Learning), ha cobrado gran importancia en los últimos años debido al rápido aumento de la capacidad de procesamiento, a la disponibilidad de una gran cantidad de datos y al surgimiento de diferentes librerías de código abierto que permiten su uso de manera sencilla y libre. Es por esto que las técnicas de Deep Learning se han convertido en el estado del arte para trabajar en diferentes problemas científicos y en concreto en el análisis de imágenes. A menudo, los problemas de análisis de imágenes requieren realizar tareas repetitivas que consumen una gran cantidad de tiempo, y las técnicas de Deep Learning son capaces de resolver estas tareas repetitivas de manera más rápida y eficiente. En concreto, estas técnicas han permitido grandes avances en diferentes campos como la seguridad, la medicina o la biología. Sin embargo, el uso de las técnicas de Deep Learning no es trivial. Para su uso es necesario contar con una gran cantidad de recursos computacionales, por ejemplo hardware especifico como GPUS o TPUS. Además, es necesario contar con una gran cantidad de datos anotados, algo que en campos como la medicina o la biología puede ser difícil de conseguir. Por último, es necesario contar con un conocimiento experto de estas técnicas tanto para construir modelos de Deep Learning como para usarlos. Estas necesidades dificultan la adopción y democratización del Deep Learning en campos como la medicina o la biología, donde la cantidad de recursos de datos es limitada, y en general, en cualquier campo distinto a las ciencias de la computación debido a la necesidad de un conocimento experto. Así, hemos identificado tres desafios relacionados con el uso de las técnicas de Deep Learning, que son: la cantidad de datos necesaria para el uso de estas técnicas, la democratización de la construcción de modelos de Deep Learning y la democratización del uso de modelos de Deep Learning.
El objetivo de este trabajo es analizar estos desafios y crear técnicas y herramientas que ayuden a mitigarlos en el contexto de la clasificación de imágenes. En primer lugar nos hemos centrado en reducir la cantidad de datos necesarios para usar las técnicas de Deep Learning. Para ello, hemos desarrollado un framework llamado CLoDSA que permite realizar aumento de datos para problemas de clasificación, detección y segmentación de imágenes. Además, hemos creado dos algoritmos de aprendizaje semi-supevisado que permiten entrenar modelos de Deep Learning usando datos anotados y sin anotar. El primer algoritmo está basado en la destilación de datos y modelos, mientras que el segundo utiliza técnicas del análisis topológico de datos.
Con el fin de democratizar la construcción de modelos de Deep Learning, hemos desarrollado una herramienta de AutoML, llamada ATLASS, que asiste al usuario en todo el proceso de creación de un modelo de clasificación de imágenes, desde la anotación de las imágenes, hasta la creación y uso de dicho modelo de Deep Learning. Esta herramienta ha sido validada con varios datasets obteniendo mejores resultados que otras herramientas de AutoML.
El problema de la democratización del uso de modelos de Deep Learning se ha abordado de dos maneras distintas. En primer lugar, para tratar de reducir la cantidad de recursos necesarios para el uso de estos modelos, se ha estudiado la combinación de métodos semi-supervisados con redes compactas y técnicas de quantificación, lo que ha permitido reducir la cantidad de recursos computacionales necesarios para entrenar y usar modelos de Deep Learning. Los modelos creados con esta aproximación tienen un rendimiento similar, o incluso superior, a los modelos de tamaño estandar y además son más rápidos y ligeros. En segundo lugar se ha abordado la democratización del uso de modelos de Deep Learning creando un framework llamado DeepClas4Bio, que proporciona un punto de acceso común para los modelos de clasificación de varias librerías de Deep Learning y facilita la interoperabilidad de las herramientas de bioimagen con modelos de Deep Learning. Además, se han creado una serie de plugins para la conexión de las principales herramientas biomédicas con dicho framework.
Por último, las técnicas y herramientas nombradas previamente han sido la base para abordar dos problemas biomédicos reales, como son la medición de la propagación de bacterias en imágenes de motilidad y la detección de enfermedades de la membrana epirretiniana a partir de imágenes de fondo de ojo.
Artificial Intelligence, and specifically Deep Learning, has gained great importance in recent years due to the rapid increase in processing capacity, the availability of a large amount of data and the emergence of different open source libraries that allow its use in a simple and free way. Due to this fact, Deep Learning techniques have become the state-of-the-art approach to work on different scientific problems and specifically on image analysis. Image analysis problems often require repetitive time-consuming tasks, and Deep Learning techniques are able to solve these repetitive tasks faster, and in an efficient way. Specifically, these techniques have allowed great advances in different fields such as security, medicine or biology. However, the use of Deep Learning techniques is not trivial since they require a large amount of computational resources, for example specific hardware such as GPUS or TPUS. In addition, it is necessary to have a large amount of annotated data, a requirement that in fields such as medicine or biology can be difficult to fulfil. Finally, expert knowledge of these techniques is required both to build Deep Learning models and to use them. These needs hinder the adoption and democratisation of Deep Learning methods in fields such as medicine or biology where the amount of data resources is limited, and in general, outside the field of computer science due to the need to expert knowledge. Thus, we have identified three challenges related to the use of Deep Learning techniques: the amount of data necessary for the use of these techniques, the democratisation of the construction of Deep Learning models, and the democratisation of the use of Deep Learning models.
The objective of this work is to analyse these challenges and create techniques and tools that help mitigate them in the context of image classification models. First of all, we have focused on reducing the amount of data required to use Deep Learning techniques. In particular, we have developed a framework called CLoDSA that allows anyone to use data augmentation methods for image classification, detection and segmentation problems. In addition, we have created two semi-supervised learning algorithms that allow us to train Deep Learning models using annotated and non-annotated data. The first algorithm is based on data and model distillation, whereas the second uses topological data analysis techniques.
In order to democratise the construction of Deep image classifications models, we have developed an AutoML tool, called ATLASS, which assists the user in the entire process of creating an image classification model, from annotating the images, yo the creation and usage of such a Deep Learning model. This tool has been validated with several datasets obtaining better results than other AutoML tools.
The problem of democratising the use of Deep Learning models has been approached in two different ways. In the first place, to reduce the amount of resources needed to use Deep Learning models, we have studied the combination of a semi-supervised method with compact networks and quantification techniques. This approach has reduced the amount of computational resources needed to train and use Deep Learning models. Moreover, models created with this approach have similar or even better performance than standard size models and are also faster and lighter. Secondly, the democratisation of the use of Deep Learning models has been addressed by creating a framework called DeepClas4Bio, which provides a common access point for the classification models of various Deep Learning libraries and facilitates the interoperability of bioimaging tools with Deep Learning models. In addition, a series of plugins have been created to connect the main biomedical tools with such a framework.
Finally, the aforementioned techniques have been the basis to deal with two real biomedical problems: the measurement of the propagation of bacteria in motility images, and the detection of diseases of the epiretinal membrane from fundus images.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados