Cross-lingual Training for Multiple-Choice Question Answering

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/109291
Información del item - Informació de l'item - Item information
Título: Cross-lingual Training for Multiple-Choice Question Answering
Título alternativo: Entrenamiento Croslingüe para Búsqueda de Respuestas de Opción Múltiple
Autor/es: Echegoyen, Guillermo | Rodrigo Yuste, Álvaro | Peñas Padilla, Anselmo
Palabras clave: Question Answering | Multiple-Choice Reading Comprehension | Multilinguality | Búsqueda de Respuestas | Opción múltiple | Multilingüismo
Área/s de conocimiento: Lenguajes y Sistemas Informáticos
Fecha de publicación: sep-2020
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: Procesamiento del Lenguaje Natural. 2020, 65: 37-44. https://doi.org/10.26342/2020-65-4
Resumen: In this work we explore to what extent multilingual models can be trained for one language and applied to a different one for the task of Multiple Choice Question Answering. We employ the RACE dataset to fine-tune both a monolingual and a multilingual models and apply these models to another different collections in different languages. The results show that both monolingual and multilingual models can be zero-shot transferred to a different dataset in the same language maintaining its performance. Besides, the multilingual model still performs good when it is applied to a different target language. Additionally, we find that exams that are more difficult to humans are harder for machines too. Finally, we advance the state-of-the-art for the QA4MRE Entrance Exams dataset in several languages. | En este trabajo exploramos en qué medida los modelos multilingües pueden ser entrenados para un solo idioma y aplicados a otro diferente para la tarea de respuesta a preguntas de opción múltiple. Empleamos el conjunto de datos RACE para ajustar tanto un modelo monolingüe como multilingüe y aplicamos estos modelos a otras colecciones en idiomas diferentes. Los resultados muestran que tanto los modelos monolingües como los multilingües pueden transferirse a un conjunto de datos diferente en el mismo idioma manteniendo su rendimiento. Además, el modelo multilingüe todavía funciona bien cuando se aplica a un idioma de destino diferente. Asimismo, hemos comprobado que los exámenes que son más difíciles para los humanos también son más difíciles para las máquinas. Finalmente, avanzamos el estado del arte para el conjunto de datos QA4MRE Entrance Exams en varios idiomas.
Patrocinador/es: This work has been funded by the Spanish Research Agency under CHIST-ERA LIHLITH project (PCIN-2017-085/AEI) and deepReading (RTI2018-096846-B-C21 /MCIU/AEI/FEDER,UE).
URI: http://hdl.handle.net/10045/109291
ISSN: 1135-5948
DOI: 10.26342/2020-65-4
Idioma: eng
Tipo: info:eu-repo/semantics/article
Derechos: © Sociedad Española para el Procesamiento del Lenguaje Natural
Revisión científica: si
Versión del editor: https://doi.org/10.14198/10.26342/2020-65-4
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 65 (2020)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_65_04.pdf897,05 kBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.