Ir al contenido

Documat


Resumen de Overview of EmoSPeech at IberLEF 2024: Multimodal Speech-text Emotion Recognition in Spanish

Ronghao Pan, José Antonio García Díaz, Miguel Ángel Rodríguez García Árbol académico, Francisco García Sánchez Árbol académico, Rafael Valencia García Árbol académico

  • español

    Este articulo resume la tarea EmoSPeech 2024, organizada en el taller IberLEF 2024, dentro del marco de la 40ª Conferencia Internacional de la Sociedad Española de Procesamiento del Lenguaje Natural (SEPLN 2024). El objetivo de esta tarea es investigar el campo del Reconocimiento Automático de Emociones, que está adquiriendo cada vez más importancia debido a su impacto en diversos campos, como la sanidad, la psicología, las ciencias sociales y el marketing. En concreto, se proponen dos subtareas que se evalúan por separado. La primera subtarea se refiere al análisis de emociones a partir de texto, que se centra en la extracción de características y la identificación de las más representativas características de cada emoción en un conjunto de datos creado a partir de situaciones de la vida real. La segunda subtarea se centra en el análisis de emociones desde una perspectiva multimodal, lo que requiere la construcción de una arquitectura más compleja para resolver este problema de clasificación. La clasificación incluye los resultados de 13 equipos diferentes, cada uno de los cuales propuso un enfoque novedoso del problema.

  • English

    This paper presents the EmoSPeech 2024 shared task, which was organized in the IberLEF 2024 workshop within the framework of the 40th International Conference of the Spanish Society for Natural Language Processing (SEPLN 2024). The objective of this shared task is to study the field of Automatic Emotion Recognition (AER), which is becoming increasingly important due to its impact on various fields, such as healthcare, psychology, social sciences, and marketing. Specifically, two tasks are proposed and evaluated separately. The first task deals with AER from text, which focusing on feature extraction and identifying the most representative feature of each emotion in a dataset created from real-life situations. The second task deals with AER from a multimodal perspective, which requires the construction of a more complex architecture to solve this classification problem. The ranking includes the results of 13 different teams, each of which proposed a novel approach to the problem.


Fundación Dialnet

Mi Documat