MarIA: Spanish Language Models

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/122847
Información del item - Informació de l'item - Item information
Título: MarIA: Spanish Language Models
Título alternativo: MarIA: Modelos del Lenguaje en Español
Autor/es: Gutiérrez-Fandiño, Asier | Armengol-Estapé, Jordi | Pàmies, Marc | Llop-Palao, Joan | Silveira-Ocampo, Joaquín | Carrino, Casimiro Pio | Armentano Oller, Carme | Rodríguez Penagos, Carlos | Gonzalez-Agirre, Aitor | Villegas Montserrat, Marta
Palabras clave: MarIA | Spanish language modelling | Spanish language resources | Benchmarking | Modelos de lenguaje del Español | Recursos de lenguaje del Español | Evaluación de modelos del lenguaje
Área/s de conocimiento: Lenguajes y Sistemas Informáticos
Fecha de publicación: mar-2022
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: Procesamiento del Lenguaje Natural. 2022, 68: 39-60. https://doi.org/10.26342/2022-68-3
Resumen: This work presents MarIA, a family of Spanish language models and associated resources made available to the industry and the research community. Currently, MarIA includes RoBERTa-base, RoBERTa-large, GPT2 and GPT2-large Spanish language models, which can arguably be presented as the largest and most proficient language models in Spanish. The models were pretrained using a massive corpus of 570GB of clean and deduplicated texts with 135 billion words extracted from the Spanish Web Archive crawled by the National Library of Spain between 2009 and 2019. We assessed the performance of the models with nine existing evaluation datasets and with a novel extractive Question Answering dataset created ex novo. Overall, MarIA models outperform the existing Spanish models across a variety of NLU tasks and training settings. | En este artículo se presenta MarIA, una familia de modelos del lenguaje en español y sus correspondientes recursos que se hacen públicos para la industria y la comunidad científica. Actualmente MarIA incluye los modelos del lenguaje en español RoBERTa-base, RoBERTa-large, GPT2 y GPT2-large que pueden considerarse como los modelos más grandes y mejores para español. Los modelos han sido preentrenados utilizando un corpus masivo de 570GB de textos limpios y deduplicados, que comprende un total de 135 mil millones de palabras extraidas del Archivo Web del Español construido por la Biblioteca Nacional de España entre los años 2009 y 2019. Evaluamos el rendimiento de los modelos con nueve conjuntos de datos existentes y con un nuevo conjunto de datos de pregunta-respuesta extractivo creado ex novo. El conjunto de modelos de MarIA supera, en la practica totalidad, el rendimiento de los modelos existentes en español en las diferentes tareas y configuraciones presentadas.
Patrocinador/es: This work was funded by the Spanish State Secretariat for Digitalization and Artificial Intelligence (SEDIA) within the framework of the Plan-TL.
URI: http://hdl.handle.net/10045/122847
ISSN: 1135-5948
DOI: 10.26342/2022-68-3
Idioma: eng
Tipo: info:eu-repo/semantics/article
Derechos: © Sociedad Española para el Procesamiento del Lenguaje Natural
Revisión científica: si
Versión del editor: https://doi.org/10.26342/2022-68-3
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 68 (2022)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_68_03.pdf1,24 MBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.