ChatPaper.aiChatPaper

Tekstuele domeinaanpassing met behulp van verenigde spraak-tekst representatie in Transducer

Text-only Domain Adaptation using Unified Speech-Text Representation in Transducer

June 7, 2023
Auteurs: Lu Huang, Boyu Li, Jun Zhang, Lu Lu, Zejun Ma
cs.AI

Samenvatting

Domeinadaptatie met alleen tekstcorpora is uitdagend in end-to-end (E2E) spraakherkenning. Aanpassing door audio te synthetiseren uit tekst via TTS is bronnenintensief. Wij presenteren een methode om Unified Speech-Text Representation in Conformer Transducer (USTR-CT) te leren, waardoor snelle domeinadaptatie mogelijk wordt met alleen een tekstcorpus. In tegenstelling tot de vorige textogrammethode wordt in ons werk een extra tekstencoder geïntroduceerd om tekstrepresentatie te leren, die tijdens de inferentie wordt verwijderd, waardoor er geen aanpassingen nodig zijn voor online implementatie. Om de efficiëntie van de aanpassing te verbeteren, worden ook enkelstaps- en meerstapsaanpassingen onderzocht. De experimenten met het aanpassen van LibriSpeech aan SPGISpeech laten zien dat de voorgestelde methode de woordfoutfrequentie (WER) relatief met 44% verlaagt in het doeldomein, wat beter is dan de TTS-methode en de textogrammethode. Ook wordt aangetoond dat de voorgestelde methode kan worden gecombineerd met interne taalmodelschatting (ILME) om de prestaties verder te verbeteren.
English
Domain adaptation using text-only corpus is challenging in end-to-end(E2E) speech recognition. Adaptation by synthesizing audio from text through TTS is resource-consuming. We present a method to learn Unified Speech-Text Representation in Conformer Transducer(USTR-CT) to enable fast domain adaptation using the text-only corpus. Different from the previous textogram method, an extra text encoder is introduced in our work to learn text representation and is removed during inference, so there is no modification for online deployment. To improve the efficiency of adaptation, single-step and multi-step adaptations are also explored. The experiments on adapting LibriSpeech to SPGISpeech show the proposed method reduces the word error rate(WER) by relatively 44% on the target domain, which is better than those of TTS method and textogram method. Also, it is shown the proposed method can be combined with internal language model estimation(ILME) to further improve the performance.
PDF10December 15, 2024