Ronghao Pan, José Antonio García Díaz, Tomas Bernal Beltran, Francisco García Sánchez
, Rafael Valencia García 
Este artículo presenta una visión general de la tarea SatiSPeech 2025, organizada en el marco del taller IberLEF 2025, celebrado conjuntamente con la XLI Congreso Internacional de la Sociedad Española para el Procesamiento del Lenguaje Natural (SEPLN 2025). El objetivo principal de esta iniciativa es avanzar en el estudio y reconocimiento automático de la sátira, una forma compleja de comunicación que plantea retos específicos para el procesamiento del lenguaje natural, especialmente en tareas relacionadas con la subjetividad, el análisis emocional y la comprensión profunda del discurso. La tarea se ha dividido en dos subtareas independientes. La primera subtarea se centra en la detección de contenido satírico a partir de transcripciones de vídeos procedentes de canales satíricos y no satíricos de YouTube, planteando el problema como una clasificación textual. La segunda subtarea introduce un enfoque multimodal, combinando información textual y acústica, lo que implica desafíos adicionales tanto en la representación de los datos como en el diseño de modelos adecuados para la fusión de modalidades. SatiSPeech 2025 ha contado con la participación activa de 11 equipos, que han desarrollado y evaluado diferentes estrategias para abordar estas tareas. A lo largo del artículo se analizan los enfoques propuestos, las técnicas empleadas y los resultados obtenidos, así como las principales conclusiones derivadas de esta edición.
This article provides an overview of the SatiSPeech 2025 shared task, organized as part of the IberLEF 2025 workshop, held in conjunction with the XLI International Congress of the Spanish Society for Natural Language Processing (SEPLN 2025). The main goal of this task is to advance research on the automatic recognition of satire—a complex form of communication that presents unique challenges for natural language processing, particularly in areas such as subjectivity analysis, emotion recognition, and deep language understanding. The task is divided into two independent subtasks. The first subtask focuses on satire detection using transcriptions from YouTube videos, distinguishing between satirical and non-satirical content through a text classification approach. The second subtask introduces a multimodal perspective, combining textual and acoustic information, which requires addressing challenges in data representation and the design of models capable of modality fusion. Eleven teams participated in SatiSPeech 2025, each proposing and evaluating different strategies to tackle these problems. This overview analyzes the proposed approaches, the techniques employed, the results obtained, and the key insights gained from this edition.
© 2008-2025 Fundación Dialnet · Todos los derechos reservados