Comparación de enfoques para evaluar la validación de respuestas

Por favor, use este identificador para citar o enlazar este ítem: http://hdl.handle.net/10045/11740
Información del item - Informació de l'item - Item information
Título: Comparación de enfoques para evaluar la validación de respuestas
Título alternativo: Comparing approaches for evaluating question answering validation
Autor/es: Rodrigo Yuste, Álvaro | Peñas Padilla, Anselmo | Verdejo Maillo, María Felisa
Palabras clave: Búsqueda de respuestas | Validación de respuestas | Evaluación | Question answering | Answer validation | Evaluation
Área/s de conocimiento: Lenguajes y Sistemas Informáticos
Fecha de publicación: sep-2009
Editor: Sociedad Española para el Procesamiento del Lenguaje Natural
Cita bibliográfica: RODRIGO YUSTE, Álvaro; PEÑAS PADILLA, Anselmo; VERDEJO MAILLO, María Felisa. “Comparación de enfoques para evaluar la validación de respuestas”. Procesamiento del lenguaje natural. N. 43 (sept. 2009). ISSN 1135-5948, pp. 277-285
Resumen: La Validación de Respuestas ha sido vista recientemente como un problema de clasificación donde se puede introducir aprendizaje automático con el propósito de mejorar los resultados de los sistemas de Búsqueda de Respuestas. La naturaleza no balanceada de las colecciones ha llevado al uso de medidas de evaluación basadas en precisión y cobertura. Sin embargo, para este tipo de evaluaciones se suele usar más análisis ROC (Relative Operating Characteristic). En este artículo se comparan ambos enfoques de acuerdo a sus fundamentos, su estabilidad en función del tamaño de las colecciones, su poder de discriminación y su adecuación a las particularidades de la Validación de Respuestas. | The Validation of Answers has been seen recently as a classification problem able to introduce Machine Learning for improving Question Answering results. The unbalanced nature of collections has led to the use of measures based on precision and recall. However, Relative Operating Characteristic (ROC) analysis is preferred sometimes in similar classification tasks. In this article we compare both approaches according to their rationale, their stability with respect to the size of the collection, their discriminative power and their adequacy to the particularities of the Answer Validation task.
Patrocinador/es: Este trabajo ha sido subvencionado parcialmente por el proyecto QEAVis-Catiex (TIN2007-67581-C02-01) del Ministerio de Ciencia e Innovación, el proyecto europeo Trebe CLEF (ICT-1-4-1 215231), la Consejería de Educación de la Comunidad de Madrid y el Fondo Social Europeo (F.S.E.).
URI: http://hdl.handle.net/10045/11740
ISSN: 1135-5948
Idioma: spa
Tipo: info:eu-repo/semantics/article
Revisión científica: si
Aparece en las colecciones:Procesamiento del Lenguaje Natural - Nº 43 (septiembre 2009)

Archivos en este ítem:
Archivos en este ítem:
Archivo Descripción TamañoFormato 
ThumbnailPLN_43_30.pdf206,36 kBAdobe PDFAbrir Vista previa


Todos los documentos en RUA están protegidos por derechos de autor. Algunos derechos reservados.