ChatPaper.aiChatPaper

オンデバイス仮想アシスタントのための世界英語言語モデルに向けて

Towards a World-English Language Model for On-Device Virtual Assistants

March 27, 2024
著者: Rricha Jalota, Lyan Verwimp, Markus Nussbaum-Thom, Amr Mousa, Arturo Argueta, Youssef Oualil
cs.AI

要旨

バーチャルアシスタント(VA)向けのニューラルネットワーク言語モデル(NNLM)は、一般的に言語、地域、場合によってはデバイスに依存しており、これらを拡張・維持するための労力が増大します。これらのカテゴリの一つまたは複数を組み合わせることは、スケーラビリティを向上させる一つの方法です。本研究では、地域ごとの英語のバリエーションを組み合わせて、オンデバイスVA向けの「ワールドイングリッシュ」NNLMを構築します。特に、既存の製品版NNLMにおいて、アダプターボトルネックを適用して方言固有の特性をモデル化し、多方言ベースラインを強化する方法を調査します。アダプターモジュールは、サブネットワーク全体を専門化するよりも方言をモデル化するのに効果的であることがわかりました。この知見を基に、製品版モデルの設計を活用して、単一方言モデルの精度、レイテンシ、メモリ制約を満たす新しいワールドイングリッシュNNLMアーキテクチャを導入します。
English
Neural Network Language Models (NNLMs) for Virtual Assistants (VAs) are generally language-, region-, and in some cases, device-dependent, which increases the effort to scale and maintain them. Combining NNLMs for one or more of the categories is one way to improve scalability. In this work, we combine regional variants of English to build a ``World English'' NNLM for on-device VAs. In particular, we investigate the application of adapter bottlenecks to model dialect-specific characteristics in our existing production NNLMs {and enhance the multi-dialect baselines}. We find that adapter modules are more effective in modeling dialects than specializing entire sub-networks. Based on this insight and leveraging the design of our production models, we introduce a new architecture for World English NNLM that meets the accuracy, latency, and memory constraints of our single-dialect models.

Summary

AI-Generated Summary

PDF61December 15, 2024