ChatPaper.aiChatPaper

Verso un Modello Linguistico World-English per Assistenti Virtuali su Dispositivo

Towards a World-English Language Model for On-Device Virtual Assistants

March 27, 2024
Autori: Rricha Jalota, Lyan Verwimp, Markus Nussbaum-Thom, Amr Mousa, Arturo Argueta, Youssef Oualil
cs.AI

Abstract

I Modelli Linguistici a Rete Neurale (NNLM) per gli Assistenti Virtuali (VA) sono generalmente dipendenti dalla lingua, dalla regione e, in alcuni casi, dal dispositivo, il che aumenta lo sforzo necessario per scalare e mantenerli. Combinare gli NNLM per una o più di queste categorie è un modo per migliorare la scalabilità. In questo lavoro, combiniamo le varianti regionali dell'inglese per costruire un NNLM "World English" per VA su dispositivo. In particolare, investigiamo l'applicazione di colli di bottiglia adattatori per modellare le caratteristiche specifiche dei dialetti nei nostri NNLM di produzione esistenti e migliorare le baseline multi-dialetto. Scopriamo che i moduli adattatori sono più efficaci nel modellare i dialetti rispetto alla specializzazione di intere sotto-reti. Basandoci su questa intuizione e sfruttando il design dei nostri modelli di produzione, introduciamo una nuova architettura per l'NNLM World English che soddisfa i vincoli di accuratezza, latenza e memoria dei nostri modelli a singolo dialetto.
English
Neural Network Language Models (NNLMs) for Virtual Assistants (VAs) are generally language-, region-, and in some cases, device-dependent, which increases the effort to scale and maintain them. Combining NNLMs for one or more of the categories is one way to improve scalability. In this work, we combine regional variants of English to build a ``World English'' NNLM for on-device VAs. In particular, we investigate the application of adapter bottlenecks to model dialect-specific characteristics in our existing production NNLMs {and enhance the multi-dialect baselines}. We find that adapter modules are more effective in modeling dialects than specializing entire sub-networks. Based on this insight and leveraging the design of our production models, we introduce a new architecture for World English NNLM that meets the accuracy, latency, and memory constraints of our single-dialect models.
PDF61February 8, 2026