ChatPaper.aiChatPaper

WavLLM: Naar een robuust en adaptief spraak-groottaalmodel

WavLLM: Towards Robust and Adaptive Speech Large Language Model

March 31, 2024
Auteurs: Shujie Hu, Long Zhou, Shujie Liu, Sanyuan Chen, Hongkun Hao, Jing Pan, Xunying Liu, Jinyu Li, Sunit Sivasankaran, Linquan Liu, Furu Wei
cs.AI

Samenvatting

De recente vooruitgang in grote taalmodellen (LLMs) heeft een revolutie teweeggebracht in het vakgebied van natuurlijke taalverwerking, waarbij hun scope geleidelijk is uitgebreid naar multimodale perceptie en generatie. Het effectief integreren van luistervaardigheden in LLMs brengt echter aanzienlijke uitdagingen met zich mee, met name wat betreft het generaliseren over verschillende contexten en het uitvoeren van complexe auditieve taken. In dit werk introduceren we WavLLM, een robuust en adaptief spraak-groot-taalmodel met dubbele encoders en een prompt-aware LoRA-gewichtadapter, geoptimaliseerd door een tweestaps curriculumleerbenadering. Door gebruik te maken van dubbele encoders ontkoppelen we verschillende soorten spraakinformatie, waarbij een Whisper-encoder wordt gebruikt om de semantische inhoud van spraak te verwerken en een WavLM-encoder om de unieke kenmerken van de sprekersidentiteit vast te leggen. Binnen het curriculumleerkader ontwikkelt WavLLM eerst zijn fundamentele vaardigheden door te optimaliseren op gemengde elementaire enkelvoudige taken, gevolgd door geavanceerde multitasktraining op complexere taken zoals combinaties van de elementaire taken. Om de flexibiliteit en het naleven van verschillende taken en instructies te verbeteren, wordt een prompt-aware LoRA-gewichtadapter geïntroduceerd in de tweede geavanceerde multitasktrainingsfase. We valideren het voorgestelde model op universele spraakbenchmarks, waaronder taken zoals ASR, ST, SV, ER, en passen het ook toe op gespecialiseerde datasets zoals de Gaokao Engels luistervaardigheidsset voor SQA en de spraak Chain-of-Thought (CoT) evaluatieset. Experimenten tonen aan dat het voorgestelde model state-of-the-art prestaties bereikt over een reeks spraaktaken bij dezelfde modelgrootte, waarbij het robuuste generalisatiecapaciteiten vertoont bij het uitvoeren van complexe taken met behulp van de CoT-benadering. Bovendien voltooit ons model met succes Gaokao-taken zonder gespecialiseerde training. De codes, modellen, audio en de Gaokao-evaluatieset zijn toegankelijk op aka.ms/wavllm.
English
The recent advancements in large language models (LLMs) have revolutionized the field of natural language processing, progressively broadening their scope to multimodal perception and generation. However, effectively integrating listening capabilities into LLMs poses significant challenges, particularly with respect to generalizing across varied contexts and executing complex auditory tasks. In this work, we introduce WavLLM, a robust and adaptive speech large language model with dual encoders, and a prompt-aware LoRA weight adapter, optimized by a two-stage curriculum learning approach. Leveraging dual encoders, we decouple different types of speech information, utilizing a Whisper encoder to process the semantic content of speech, and a WavLM encoder to capture the unique characteristics of the speaker's identity. Within the curriculum learning framework, WavLLM first builds its foundational capabilities by optimizing on mixed elementary single tasks, followed by advanced multi-task training on more complex tasks such as combinations of the elementary tasks. To enhance the flexibility and adherence to different tasks and instructions, a prompt-aware LoRA weight adapter is introduced in the second advanced multi-task training stage. We validate the proposed model on universal speech benchmarks including tasks such as ASR, ST, SV, ER, and also apply it to specialized datasets like Gaokao English listening comprehension set for SQA, and speech Chain-of-Thought (CoT) evaluation set. Experiments demonstrate that the proposed model achieves state-of-the-art performance across a range of speech tasks on the same model size, exhibiting robust generalization capabilities in executing complex tasks using CoT approach. Furthermore, our model successfully completes Gaokao tasks without specialized training. The codes, models, audio, and Gaokao evaluation set can be accessed at aka.ms/wavllm.
PDF111February 8, 2026