Hacia un Modelo de Lenguaje Mundial-Inglés para Asistentes Virtuales en Dispositivos Locales
Towards a World-English Language Model for On-Device Virtual Assistants
March 27, 2024
Autores: Rricha Jalota, Lyan Verwimp, Markus Nussbaum-Thom, Amr Mousa, Arturo Argueta, Youssef Oualil
cs.AI
Resumen
Los Modelos de Lenguaje basados en Redes Neuronales (NNLMs) para Asistentes Virtuales (VAs) suelen ser dependientes del idioma, la región y, en algunos casos, del dispositivo, lo que incrementa el esfuerzo para escalarlos y mantenerlos. Combinar NNLMs para una o más de estas categorías es una forma de mejorar la escalabilidad. En este trabajo, combinamos variantes regionales del inglés para construir un NNLM de "Inglés Global" para VAs en dispositivos. En particular, investigamos la aplicación de cuellos de botella adaptadores para modelar características específicas de dialectos en nuestros NNLMs de producción existentes {y mejorar las líneas base multi-dialecto}. Descubrimos que los módulos adaptadores son más efectivos para modelar dialectos que especializar subredes completas. Basándonos en esta idea y aprovechando el diseño de nuestros modelos de producción, introducimos una nueva arquitectura para el NNLM de Inglés Global que cumple con las restricciones de precisión, latencia y memoria de nuestros modelos de un solo dialecto.
English
Neural Network Language Models (NNLMs) for Virtual Assistants (VAs) are
generally language-, region-, and in some cases, device-dependent, which
increases the effort to scale and maintain them. Combining NNLMs for one or
more of the categories is one way to improve scalability. In this work, we
combine regional variants of English to build a ``World English'' NNLM for
on-device VAs. In particular, we investigate the application of adapter
bottlenecks to model dialect-specific characteristics in our existing
production NNLMs {and enhance the multi-dialect baselines}. We find that
adapter modules are more effective in modeling dialects than specializing
entire sub-networks. Based on this insight and leveraging the design of our
production models, we introduce a new architecture for World English NNLM that
meets the accuracy, latency, and memory constraints of our single-dialect
models.Summary
AI-Generated Summary