Auf dem Weg zu einem Welt-Englisch Sprachmodell für virtuelle Assistenten auf Geräten
Towards a World-English Language Model for On-Device Virtual Assistants
March 27, 2024
Autoren: Rricha Jalota, Lyan Verwimp, Markus Nussbaum-Thom, Amr Mousa, Arturo Argueta, Youssef Oualil
cs.AI
Zusammenfassung
Neuronale Netzwerk-Sprachmodelle (NNLMs) für Virtuelle Assistenten (VAs) sind in der Regel sprach-, regions- und in einigen Fällen geräteabhängig, was den Aufwand für Skalierung und Wartung erhöht. Die Kombination von NNLMs für eine oder mehrere Kategorien ist ein Weg, um die Skalierbarkeit zu verbessern. In dieser Arbeit kombinieren wir regionale Varianten des Englischen, um ein "Weltenglisch" NNLM für VAs auf Geräten zu erstellen. Insbesondere untersuchen wir die Anwendung von Adapter-Engpässen, um dialektspezifische Merkmale in unseren bestehenden Produktions-NNLMs zu modellieren {und die Multi-Dialekt-Baselines zu verbessern}. Wir stellen fest, dass Adaptermodule effektiver sind beim Modellieren von Dialekten als die Spezialisierung ganzer Teilnetzwerke. Basierend auf dieser Erkenntnis und unter Nutzung des Designs unserer Produktionsmodelle führen wir eine neue Architektur für das Weltenglisch NNLM ein, die die Genauigkeit, Latenz und Speicherbeschränkungen unserer Einzeldialektmodelle erfüllt.
English
Neural Network Language Models (NNLMs) for Virtual Assistants (VAs) are
generally language-, region-, and in some cases, device-dependent, which
increases the effort to scale and maintain them. Combining NNLMs for one or
more of the categories is one way to improve scalability. In this work, we
combine regional variants of English to build a ``World English'' NNLM for
on-device VAs. In particular, we investigate the application of adapter
bottlenecks to model dialect-specific characteristics in our existing
production NNLMs {and enhance the multi-dialect baselines}. We find that
adapter modules are more effective in modeling dialects than specializing
entire sub-networks. Based on this insight and leveraging the design of our
production models, we introduce a new architecture for World English NNLM that
meets the accuracy, latency, and memory constraints of our single-dialect
models.Summary
AI-Generated Summary