ChatPaper.aiChatPaper

WavLLM: Rumo a um Modelo de Linguagem Grande de Fala Robusto e Adaptativo

WavLLM: Towards Robust and Adaptive Speech Large Language Model

March 31, 2024
Autores: Shujie Hu, Long Zhou, Shujie Liu, Sanyuan Chen, Hongkun Hao, Jing Pan, Xunying Liu, Jinyu Li, Sunit Sivasankaran, Linquan Liu, Furu Wei
cs.AI

Resumo

Os recentes avanços em modelos de linguagem de grande escala (LLMs) revolucionaram o campo do processamento de linguagem natural, ampliando progressivamente seu escopo para percepção e geração multimodal. No entanto, integrar efetivamente capacidades de escuta em LLMs apresenta desafios significativos, particularmente no que diz respeito à generalização em contextos variados e à execução de tarefas auditivas complexas. Neste trabalho, apresentamos o WavLLM, um modelo robusto e adaptável de linguagem de grande escala para fala com codificadores duplos e um adaptador de pesos LoRA consciente de prompts, otimizado por uma abordagem de aprendizado curricular em duas etapas. Aproveitando os codificadores duplos, desacoplamos diferentes tipos de informações de fala, utilizando um codificador Whisper para processar o conteúdo semântico da fala e um codificador WavLM para capturar as características únicas da identidade do falante. Dentro do framework de aprendizado curricular, o WavLLM primeiro constrói suas capacidades fundamentais otimizando em tarefas elementares únicas mistas, seguido por treinamento avançado em múltiplas tarefas mais complexas, como combinações das tarefas elementares. Para aumentar a flexibilidade e aderência a diferentes tarefas e instruções, um adaptador de pesos LoRA consciente de prompts é introduzido na segunda etapa avançada de treinamento em múltiplas tarefas. Validamos o modelo proposto em benchmarks universais de fala, incluindo tarefas como ASR, ST, SV, ER, e também o aplicamos a conjuntos de dados especializados, como o conjunto de compreensão auditiva de inglês do Gaokao para SQA e o conjunto de avaliação de Chain-of-Thought (CoT) em fala. Os experimentos demonstram que o modelo proposto alcança desempenho de ponta em uma variedade de tarefas de fala com o mesmo tamanho de modelo, exibindo capacidades robustas de generalização na execução de tarefas complexas usando a abordagem CoT. Além disso, nosso modelo completa com sucesso tarefas do Gaokao sem treinamento especializado. Os códigos, modelos, áudios e o conjunto de avaliação do Gaokao podem ser acessados em aka.ms/wavllm.
English
The recent advancements in large language models (LLMs) have revolutionized the field of natural language processing, progressively broadening their scope to multimodal perception and generation. However, effectively integrating listening capabilities into LLMs poses significant challenges, particularly with respect to generalizing across varied contexts and executing complex auditory tasks. In this work, we introduce WavLLM, a robust and adaptive speech large language model with dual encoders, and a prompt-aware LoRA weight adapter, optimized by a two-stage curriculum learning approach. Leveraging dual encoders, we decouple different types of speech information, utilizing a Whisper encoder to process the semantic content of speech, and a WavLM encoder to capture the unique characteristics of the speaker's identity. Within the curriculum learning framework, WavLLM first builds its foundational capabilities by optimizing on mixed elementary single tasks, followed by advanced multi-task training on more complex tasks such as combinations of the elementary tasks. To enhance the flexibility and adherence to different tasks and instructions, a prompt-aware LoRA weight adapter is introduced in the second advanced multi-task training stage. We validate the proposed model on universal speech benchmarks including tasks such as ASR, ST, SV, ER, and also apply it to specialized datasets like Gaokao English listening comprehension set for SQA, and speech Chain-of-Thought (CoT) evaluation set. Experiments demonstrate that the proposed model achieves state-of-the-art performance across a range of speech tasks on the same model size, exhibiting robust generalization capabilities in executing complex tasks using CoT approach. Furthermore, our model successfully completes Gaokao tasks without specialized training. The codes, models, audio, and Gaokao evaluation set can be accessed at aka.ms/wavllm.
PDF111February 8, 2026