ChatPaper.aiChatPaper

동적 ASR 경로: 다국어 ASR 모델의 효율적 가지치기를 위한 적응형 마스킹 접근법

Dynamic ASR Pathways: An Adaptive Masking Approach Towards Efficient Pruning of A Multilingual ASR Model

September 22, 2023
저자: Jiamin Xie, Ke Li, Jinxi Guo, Andros Tjandra, Yuan Shangguan, Leda Sari, Chunyang Wu, Junteng Jia, Jay Mahadeokar, Ozlem Kalinli
cs.AI

초록

신경망 가지치기(pruning)는 성능 저하를 최소화하면서 다국어 자동 음성 인식(ASR) 모델을 압축하는 효과적인 방법을 제공합니다. 그러나 이 방법은 각 언어마다 여러 차례의 가지치기와 재훈련을 필요로 합니다. 본 연구에서는 다국어 ASR 모델을 효율적으로 가지치기하기 위해 적응형 마스킹 접근법을 두 가지 시나리오에서 제안합니다. 이 접근법은 희소 단일 언어 모델 또는 희소 다국어 모델(다이나믹 ASR 경로로 명명됨)을 생성합니다. 우리의 접근법은 고정된 하위 네트워크 구조에 대한 조기 결정을 피하면서 하위 네트워크를 동적으로 적응시킵니다. 우리는 희소 단일 언어 모델을 목표로 할 때 기존 가지치기 방법보다 우리의 접근법이 더 우수함을 보여줍니다. 또한, 다이나믹 ASR 경로는 서로 다른 하위 네트워크 초기화에서 적응함으로써 단일 다국어 모델의 더 나은 하위 네트워크(경로)를 공동으로 발견하고 훈련하여 언어별 가지치기의 필요성을 줄입니다.
English
Neural network pruning offers an effective method for compressing a multilingual automatic speech recognition (ASR) model with minimal performance loss. However, it entails several rounds of pruning and re-training needed to be run for each language. In this work, we propose the use of an adaptive masking approach in two scenarios for pruning a multilingual ASR model efficiently, each resulting in sparse monolingual models or a sparse multilingual model (named as Dynamic ASR Pathways). Our approach dynamically adapts the sub-network, avoiding premature decisions about a fixed sub-network structure. We show that our approach outperforms existing pruning methods when targeting sparse monolingual models. Further, we illustrate that Dynamic ASR Pathways jointly discovers and trains better sub-networks (pathways) of a single multilingual model by adapting from different sub-network initializations, thereby reducing the need for language-specific pruning.
PDF91December 15, 2024