La gran cantidad de datos disponibles a través de la red hacen más que patente la necesidad de sistemas que nos ayuden a separar el contenido relevante del que carece de importancia. Esta tarea es realizada por los llamados Sistemas de Recomendación, y en la actualidad podemos encontrarlos en la mayoría de las webs que utilizamos diariamente.
Estos sistemas se entrenan, tradicionalmente, haciendo uso de la interacciones históricas de los usuarios (compras realizadas, canciones o videos reproducidos, noticias leídas, ...) puesto que no suele existir más información disponible para hacerlo. En la actualidad, muchas plataformas permiten también que los usuarios extiendan su opinión sobre la interacción mediante texto o imágenes (información no estructurada), los cuales, creemos que pueden utilizarse a la hora de crear o mejorar un Sistema de Recomendación.
En los diversos trabajos de esta tesis pretendemos sacar provecho de este tipo de información (texto e imágenes particularmente) de diferentes formas con el objetivo de, no solo mejorar el rendimiento de los Sistemas de Recomendación, también su experiencia de uso, las formas en las que obtener una recomendación o la presentación de las recomendaciones finales entre otros.
La tesis se divide, principalmente, en cuatro partes, en la primera de ellas detallamos como se ha creado y analizamos el conjunto de datos que se utilizará a lo largo de todo el documento. La parte número dos contiene todos los trabajos relacionados con el uso del texto, en este caso un Sistema de Recomendación de restaurantes basado en texto con capacidad de generación de explicaciones así como transparencia.
En la tercera parte del documento, la más extensa, se encuentran los trabajos relacionados con el campo de las imágenes. El primer trabajo presenta un sistema capaz de predecir, a partir de una foto, el usuario que la ha realizado. El objetivo que se persigue es poder utilizar este sistema para, cuando un usuario entra en la web de un restaurante, mostrarle solo aquellas fotos que, aunque no las ha realizado, podría haberlo hecho (poseen un estilo o contenido similar al del usuario).
La siguiente propuesta relacionada con imágenes presenta una nueva forma de crear embeddings para imágenes a partir de los cuales se pueden realizar recomendaciones. Esta nueva codificación se diferencia de las tradicionales en que no está basada en el contenido de la imagen, si no que en los gustos de los usuarios.
Partiendo de la codificación anterior, en el siguiente trabajo se presenta un sistema capaz de resumir, en pocas imágenes los gustos gastronómicos de una ciudad. El sistema es capaz de crear grupos de usuarios según sus gustos y de seleccionar, para cada uno, las imágenes que mejor los representen.
Finalmente, gracias a lo aprendido en las propuestas anteriores, en el último trabajo de esta parte y de la tesis, se presenta una aplicación móvil capaz de generar recomendaciones de restaurantes partiendo únicamente de una imagen de comida.
La última parte del documento lista las publicaciones relacionadas con los trabajos presentados y detalla su lugar de publicación, impacto y estado. Para finalizar se cierra el documento con las conclusiones globales de la tesis.
The vast amount of data available on the web makes the need for systems that help us to distinguish relevant content from irrelevant content more than evident. This task is carried out by the so-called Recommender Systems, and we can currently find them on most of the websites we use on a daily basis.
These systems typically learn from the user’s consumption history (purchases, listens, clicks, ...) but rarely make use of additional information provided by users in the form of natural language texts or images (unstructured data).
In the multiple works of this thesis we intend to take advantage of this type of information in different ways with the aim of improving the performance of Recommender Systems as well as users experience, the ways in which to obtain a recommendation or the presentation of the final recommendations among others.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados