ChatPaper.aiChatPaper

SlimLM: Un Modelo de Lenguaje Pequeño Eficiente para la Asistencia de Documentos en Dispositivos.

SlimLM: An Efficient Small Language Model for On-Device Document Assistance

November 15, 2024
Autores: Thang M. Pham, Phat T. Nguyen, Seunghyun Yoon, Viet Dac Lai, Franck Dernoncourt, Trung Bui
cs.AI

Resumen

Si bien los modelos de lenguaje pequeños (SLMs) muestran promesas para su implementación en dispositivos móviles, su rendimiento y aplicaciones en el mundo real en teléfonos inteligentes siguen siendo poco explorados. Presentamos SlimLM, una serie de SLMs optimizados para tareas de asistencia documental en dispositivos móviles. A través de experimentos exhaustivos en un Samsung Galaxy S24, identificamos los compromisos óptimos entre el tamaño del modelo (que varía de 125M a 7B parámetros), la longitud del contexto y el tiempo de inferencia para un procesamiento eficiente en el dispositivo. SlimLM se pre-entrena en SlimPajama-627B y se ajusta finamente en DocAssist, nuestro conjunto de datos construido para tareas de resumen, respuesta a preguntas y sugerencias. Nuestro modelo más pequeño demuestra un rendimiento eficiente en S24, mientras que las variantes más grandes ofrecen capacidades mejoradas dentro de las limitaciones móviles. Evaluamos SlimLM frente a SLMs existentes, mostrando un rendimiento comparable o superior y ofreciendo un punto de referencia para futuras investigaciones en modelos de lenguaje en dispositivos. También proporcionamos una aplicación para Android, que ofrece ideas prácticas sobre la implementación de SLMs. Nuestros hallazgos ofrecen información valiosa e iluminan las capacidades de ejecutar modelos de lenguaje avanzados en teléfonos inteligentes de alta gama, lo que potencialmente reduce los costos del servidor y mejora la privacidad a través del procesamiento en el dispositivo.
English
While small language models (SLMs) show promises for mobile deployment, their real-world performance and applications on smartphones remains underexplored. We present SlimLM, a series of SLMs optimized for document assistance tasks on mobile devices. Through extensive experiments on a Samsung Galaxy S24, we identify the optimal trade-offs between model size (ranging from 125M to 7B parameters), context length, and inference time for efficient on-device processing. SlimLM is pre-trained on SlimPajama-627B and fine-tuned on DocAssist, our constructed dataset for summarization, question answering and suggestion tasks. Our smallest model demonstrates efficient performance on S24, while larger variants offer enhanced capabilities within mobile constraints. We evaluate SlimLM against existing SLMs, showing comparable or superior performance and offering a benchmark for future research in on-device language models. We also provide an Android application, offering practical insights into SLM deployment. Our findings provide valuable insights and illuminate the capabilities of running advanced language models on high-end smartphones, potentially reducing server costs and enhancing privacy through on-device processing.

Summary

AI-Generated Summary

PDF122November 19, 2024