Evaluación de un modelo transformador aplicado a la tarea de generación de resúmenes en distintos dominios

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/114223
Información del item - Informació de l'item - Item information
Título: Evaluación de un modelo transformador aplicado a la tarea de generación de resúmenes en distintos dominios
Título alternativo: Evaluation of a transformer model applied to the task of text summarization in different domains
Autor/es: Segura Bedmar, Isabel | Ruz, Lucía | Guerrero-Aspizua, Sara
Palabras clave: Generación de resúmenes | Transformadores | Text summarization | Transformers
Área/s de conocimiento: Lenguajes y Sistemas Informáticos
Fecha de publicación: mar-2021
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: Procesamiento del Lenguaje Natural. 2021, 66: 27-39. https://doi.org/10.26342/2021-66-2
Resumen: En los últimos años, las técnicas de deep learning han supuesto un gran impulso tecnológico en muchas de las tareas de Procesamiento de Lenguaje Natural (PLN). La tarea de generación de resúmenes también se ha beneficiado de estas técnicas, y en los últimos años se han implementado distintos modelos, logrando superar los resultados del estado de la cuestión. La mayoría de estos trabajos han sido evaluados en colecciones de textos periodísticos. Este artículo presenta un trabajo preliminar donde aplicamos un modelo transformador, BART, para la tarea de generación de resúmenes y lo evaluamos en varios datasets, uno de ellos formado por textos del dominio biomédico. | In recent years, deep learning techniques have provided a significant technological advance in many Natural Language Processing (NLP) tasks. Text summarization has also benefited from these techniques. Recently, several deep learning approaches have been implemented, surpassing the previous state of the art performances. Most of these works have been evaluated on collections of journalistic texts. This article presents a preliminary work where we apply a transforming model, BART, for text summarization. The model is evaluated on several datasets, one of them consisting of texts from the biomedical domain.
Patrocinador/es: Este trabajo ha sido financiado por el Programa de Investigación del Ministerio de Economía y Competitividad del Gobierno de España, (Proyecto DeepEMR TIN2017-87548-C2-1-R) y por el Programa para proyectos interdisciplinares para jóvenes doctores en la Universidad Carlos III de Madrid financiado por la Comunidad de Madrid (Proyecto NLP4Rare-CM-UC3M).
URI: http://hdl.handle.net/10045/114223
ISSN: 1135-5948
DOI: 10.26342/2021-66-2
Idioma: spa
Tipo: info:eu-repo/semantics/article
Derechos: © Sociedad Española para el Procesamiento del Lenguaje Natural
Revisión científica: si
Versión del editor: https://doi.org/10.26342/2021-66-2
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 66 (2021)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_66_02.pdf781,99 kBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.