ChatPaper.aiChatPaper

Accélération des transducteurs par fusion de tokens adjacents

Accelerating Transducers through Adjacent Token Merging

June 28, 2023
Auteurs: Yuang Li, Yu Wu, Jinyu Li, Shujie Liu
cs.AI

Résumé

Les systèmes récents de reconnaissance automatique de la parole (ASR) de bout en bout utilisent souvent un encodeur acoustique basé sur le Transformer qui génère des embeddings à un taux de trames élevé. Cependant, cette conception est inefficace, en particulier pour les signaux vocaux longs, en raison du calcul quadratique de l'auto-attention. Pour remédier à cela, nous proposons une nouvelle méthode, le Adjacent Token Merging (A-ToMe), qui combine progressivement les tokens adjacents présentant des scores de similarité élevés entre leurs valeurs clés. De cette manière, le nombre total d'étapes temporelles peut être réduit, et l'inférence à la fois de l'encodeur et du réseau joint est accélérée. Les expériences sur LibriSpeech montrent que notre méthode peut réduire de 57 % le nombre de tokens et améliorer la vitesse d'inférence sur GPU de 70 % sans perte notable de précision. De plus, nous démontrons qu'A-ToMe est également une solution efficace pour réduire les tokens dans l'ASR de long format, où la parole d'entrée est composée de multiples énoncés.
English
Recent end-to-end automatic speech recognition (ASR) systems often utilize a Transformer-based acoustic encoder that generates embedding at a high frame rate. However, this design is inefficient, particularly for long speech signals due to the quadratic computation of self-attention. To address this, we propose a new method, Adjacent Token Merging (A-ToMe), which gradually combines adjacent tokens with high similarity scores between their key values. In this way, the total time step could be reduced, and the inference of both the encoder and joint network is accelerated. Experiments on LibriSpeech show that our method can reduce 57% of tokens and improve the inference speed on GPU by 70% without any notable loss of accuracy. Additionally, we demonstrate that A-ToMe is also an effective solution to reduce tokens in long-form ASR, where the input speech consists of multiple utterances.
PDF20December 15, 2024