アプリケーションに依存しないオンデバイスASRのための言語モデリング
Application-Agnostic Language Modeling for On-Device ASR
May 16, 2023
著者: Markus Nußbaum-Thom, Lyan Verwimp, Youssef Oualil
cs.AI
要旨
オンデバイスの自動音声認識システムは、サーバーベースのシステムと比較していくつかの課題に直面しています。速度、ディスクサイズ、メモリに関してより厳しい制約を満たしながら、同じ精度を維持しなければなりません。多くの場合、仮想アシスタントとの通信や音声テキスト変換など、異なる分布を持つ複数のアプリケーションを同時に処理する必要があります。複数のアプリケーションに対応する最も単純な解決策は、アプリケーション固有の(言語)モデルを構築することですが、これによりメモリ使用量が増加します。そのため、私たちは単一のアプリケーション非依存モデルを構築するために、データ駆動型およびアーキテクチャ駆動型の言語モデリングアプローチを探求しています。異なるオンデバイス制約の間で最適なトレードオフを見つける2つの新しいフィードフォワードアーキテクチャを提案します。アプリケーション固有のソリューションと比較して、私たちの新しいアプローチの1つは、元のモデルの速度と精度を維持しながら、ディスクサイズを半分に削減します。
English
On-device automatic speech recognition systems face several challenges
compared to server-based systems. They have to meet stricter constraints in
terms of speed, disk size and memory while maintaining the same accuracy. Often
they have to serve several applications with different distributions at once,
such as communicating with a virtual assistant and speech-to-text. The simplest
solution to serve multiple applications is to build application-specific
(language) models, but this leads to an increase in memory. Therefore, we
explore different data- and architecture-driven language modeling approaches to
build a single application-agnostic model. We propose two novel feed-forward
architectures that find an optimal trade off between different on-device
constraints. In comparison to the application-specific solution, one of our
novel approaches reduces the disk size by half, while maintaining speed and
accuracy of the original model.