ChatPaper.aiChatPaper

EmoNet-Voz: Un Punto de Referencia Detallado y Verificado por Expertos para la Detección de Emociones en el Habla

EmoNet-Voice: A Fine-Grained, Expert-Verified Benchmark for Speech Emotion Detection

June 11, 2025
Autores: Christoph Schuhmann, Robert Kaczmarczyk, Gollam Rabby, Felix Friedrich, Maurice Kraus, Kourosh Nadi, Huu Nguyen, Kristian Kersting, Sören Auer
cs.AI

Resumen

El avance de los modelos de conversión de texto a voz y generación de audio requiere puntos de referencia robustos para evaluar las capacidades de comprensión emocional de los sistemas de inteligencia artificial. Los conjuntos de datos actuales de reconocimiento de emociones en el habla (SER, por sus siglas en inglés) suelen presentar limitaciones en la granularidad emocional, preocupaciones de privacidad o dependencia de representaciones actuadas. Este artículo presenta EmoNet-Voice, un nuevo recurso para la detección de emociones en el habla, que incluye EmoNet-Voice Big, un conjunto de datos de preentrenamiento a gran escala (con más de 4,500 horas de habla en 11 voces, 40 emociones y 4 idiomas), y EmoNet-Voice Bench, un nuevo conjunto de datos de referencia con anotaciones de expertos humanos. EmoNet-Voice está diseñado para evaluar modelos SER en un espectro detallado de 40 categorías emocionales con diferentes niveles de intensidad. Aprovechando la generación de voz de última generación, seleccionamos fragmentos de audio sintéticos que simulan actores representando escenas diseñadas para evocar emociones específicas. De manera crucial, realizamos una validación rigurosa por parte de expertos en psicología que asignaron etiquetas de intensidad percibida. Este enfoque sintético y respetuoso con la privacidad permite la inclusión de estados emocionales sensibles que a menudo están ausentes en los conjuntos de datos existentes. Por último, presentamos los modelos Empathic Insight Voice, que establecen un nuevo estándar en el reconocimiento de emociones en el habla con un alto acuerdo con los expertos humanos. Nuestras evaluaciones en el panorama actual de modelos exhiben hallazgos valiosos, como que las emociones de alta activación, como la ira, son mucho más fáciles de detectar que los estados de baja activación, como la concentración.
English
The advancement of text-to-speech and audio generation models necessitates robust benchmarks for evaluating the emotional understanding capabilities of AI systems. Current speech emotion recognition (SER) datasets often exhibit limitations in emotional granularity, privacy concerns, or reliance on acted portrayals. This paper introduces EmoNet-Voice, a new resource for speech emotion detection, which includes EmoNet-Voice Big, a large-scale pre-training dataset (featuring over 4,500 hours of speech across 11 voices, 40 emotions, and 4 languages), and EmoNet-Voice Bench, a novel benchmark dataset with human expert annotations. EmoNet-Voice is designed to evaluate SER models on a fine-grained spectrum of 40 emotion categories with different levels of intensities. Leveraging state-of-the-art voice generation, we curated synthetic audio snippets simulating actors portraying scenes designed to evoke specific emotions. Crucially, we conducted rigorous validation by psychology experts who assigned perceived intensity labels. This synthetic, privacy-preserving approach allows for the inclusion of sensitive emotional states often absent in existing datasets. Lastly, we introduce Empathic Insight Voice models that set a new standard in speech emotion recognition with high agreement with human experts. Our evaluations across the current model landscape exhibit valuable findings, such as high-arousal emotions like anger being much easier to detect than low-arousal states like concentration.
PDF142June 20, 2025