ChatPaper.aiChatPaper

Mejorando la robustez de la verificación de locutor con enunciados emocionales sintéticos

Improving speaker verification robustness with synthetic emotional utterances

November 30, 2024
Autores: Nikhil Kumar Koditala, Chelsea Jui-Ting Ju, Ruirui Li, Minho Jin, Aman Chadha, Andreas Stolcke
cs.AI

Resumen

Un sistema de verificación de locutor (SV) ofrece un servicio de autenticación diseñado para confirmar si una muestra de habla dada proviene de un locutor específico. Esta tecnología ha allanado el camino para diversas aplicaciones personalizadas que se adaptan a las preferencias individuales. Un desafío notable enfrentado por los sistemas SV es su capacidad para desempeñarse de manera consistente en una variedad de espectros emocionales. La mayoría de los modelos existentes muestran altas tasas de error al tratar con enunciados emocionales en comparación con los neutrales. En consecuencia, este fenómeno a menudo conduce a perder el habla de interés. Este problema se origina principalmente en la disponibilidad limitada de datos de habla emocional etiquetados, obstaculizando el desarrollo de representaciones robustas de locutores que abarquen diversos estados emocionales. Para abordar esta preocupación, proponemos un enfoque novedoso que emplea el marco de CycleGAN para servir como un método de aumento de datos. Esta técnica sintetiza segmentos de habla emocional para cada locutor específico mientras preserva la identidad vocal única. Nuestros hallazgos experimentales subrayan la efectividad de incorporar datos emocionales sintéticos en el proceso de entrenamiento. Los modelos entrenados utilizando este conjunto de datos aumentado superan consistentemente a los modelos base en la tarea de verificar locutores en escenarios de habla emocional, reduciendo la tasa de error igual en hasta un 3.64% en comparación.
English
A speaker verification (SV) system offers an authentication service designed to confirm whether a given speech sample originates from a specific speaker. This technology has paved the way for various personalized applications that cater to individual preferences. A noteworthy challenge faced by SV systems is their ability to perform consistently across a range of emotional spectra. Most existing models exhibit high error rates when dealing with emotional utterances compared to neutral ones. Consequently, this phenomenon often leads to missing out on speech of interest. This issue primarily stems from the limited availability of labeled emotional speech data, impeding the development of robust speaker representations that encompass diverse emotional states. To address this concern, we propose a novel approach employing the CycleGAN framework to serve as a data augmentation method. This technique synthesizes emotional speech segments for each specific speaker while preserving the unique vocal identity. Our experimental findings underscore the effectiveness of incorporating synthetic emotional data into the training process. The models trained using this augmented dataset consistently outperform the baseline models on the task of verifying speakers in emotional speech scenarios, reducing equal error rate by as much as 3.64% relative.

Summary

AI-Generated Summary

PDF22December 3, 2024