Comparación de enfoques para evaluar la validación de respuestas
Por favor, use este identificador para citar o enlazar este ítem:
http://hdl.handle.net/10045/11740
Título: | Comparación de enfoques para evaluar la validación de respuestas |
---|---|
Título alternativo: | Comparing approaches for evaluating question answering validation |
Autor/es: | Rodrigo Yuste, Álvaro | Peñas Padilla, Anselmo | Verdejo Maillo, María Felisa |
Palabras clave: | Búsqueda de respuestas | Validación de respuestas | Evaluación | Question answering | Answer validation | Evaluation |
Área/s de conocimiento: | Lenguajes y Sistemas Informáticos |
Fecha de publicación: | sep-2009 |
Editor: | Sociedad Española para el Procesamiento del Lenguaje Natural |
Cita bibliográfica: | RODRIGO YUSTE, Álvaro; PEÑAS PADILLA, Anselmo; VERDEJO MAILLO, María Felisa. “Comparación de enfoques para evaluar la validación de respuestas”. Procesamiento del lenguaje natural. N. 43 (sept. 2009). ISSN 1135-5948, pp. 277-285 |
Resumen: | La Validación de Respuestas ha sido vista recientemente como un problema de clasificación donde se puede introducir aprendizaje automático con el propósito de mejorar los resultados de los sistemas de Búsqueda de Respuestas. La naturaleza no balanceada de las colecciones ha llevado al uso de medidas de evaluación basadas en precisión y cobertura. Sin embargo, para este tipo de evaluaciones se suele usar más análisis ROC (Relative Operating Characteristic). En este artículo se comparan ambos enfoques de acuerdo a sus fundamentos, su estabilidad en función del tamaño de las colecciones, su poder de discriminación y su adecuación a las particularidades de la Validación de Respuestas. | The Validation of Answers has been seen recently as a classification problem able to introduce Machine Learning for improving Question Answering results. The unbalanced nature of collections has led to the use of measures based on precision and recall. However, Relative Operating Characteristic (ROC) analysis is preferred sometimes in similar classification tasks. In this article we compare both approaches according to their rationale, their stability with respect to the size of the collection, their discriminative power and their adequacy to the particularities of the Answer Validation task. |
Patrocinador/es: | Este trabajo ha sido subvencionado parcialmente por el proyecto QEAVis-Catiex (TIN2007-67581-C02-01) del Ministerio de Ciencia e Innovación, el proyecto europeo Trebe CLEF (ICT-1-4-1 215231), la Consejería de Educación de la Comunidad de Madrid y el Fondo Social Europeo (F.S.E.). |
URI: | http://hdl.handle.net/10045/11740 |
ISSN: | 1135-5948 |
Idioma: | spa |
Tipo: | info:eu-repo/semantics/article |
Revisión científica: | si |
Aparece en las colecciones: | Procesamiento del Lenguaje Natural - Nº 43 (septiembre 2009) |
Archivos en este ítem:
Archivo | Descripción | Tamaño | Formato | |
---|---|---|---|---|
PLN_43_30.pdf | 206,36 kB | Adobe PDF | Abrir Vista previa | |
Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.