ChatPaper.aiChatPaper

Transformer-Lite: Hochleistungs-Bereitstellung großer Sprachmodelle auf Mobiltelefon-GPUs

Transformer-Lite: High-efficiency Deployment of Large Language Models on Mobile Phone GPUs

March 29, 2024
Autoren: Luchang Li, Sheng Qian, Jie Lu, Lunxi Yuan, Rui Wang, Qin Xie
cs.AI

Zusammenfassung

Das Large Language Model (LLM) wird weit verbreitet für Aufgaben wie intelligente Assistenten, Textzusammenfassung, Übersetzung und Multimodalität auf Mobiltelefonen eingesetzt. Allerdings weisen die aktuellen Methoden für die Bereitstellung von LLM auf Geräten eine langsame Inferenzgeschwindigkeit auf, was zu einer schlechten Benutzererfahrung führt. Um eine hocheffiziente Bereitstellung von LLM auf Geräte-GPUs zu ermöglichen, schlagen wir vier Optimierungstechniken vor: (a) einen auf symbolischen Ausdrücken basierenden Ansatz zur Unterstützung der Inferenz von Modellen mit dynamischer Form; (b) Optimierungen von Operatoren und Einstellung der Ausführungspriorität zur Verbesserung der Inferenzgeschwindigkeit und Reduzierung von Verzögerungen auf dem Telefon; (c) eine FP4-Quantisierungsmethode namens M0E4 zur Reduzierung des Overheads für die Dezimalquantisierung; (d) eine auf Subtensoren basierende Technik, um die Notwendigkeit des Kopierens des KV-Caches nach der LLM-Inferenz zu beseitigen. Darüber hinaus implementieren wir diese Methoden in unserem mobilen Inferenzmotor, Transformer-Lite, der mit Prozessoren von Qualcomm und MTK kompatibel ist. Wir haben die Leistung von Transformer-Lite anhand von LLMs mit unterschiedlichen Architekturen und Parametern von 2B bis 14B bewertet. Insbesondere haben wir Vorabfüll- und Decodierungsgeschwindigkeiten von 121 Token/s bzw. 14 Token/s für ChatGLM2 6B und 330 Token/s bzw. 30 Token/s für das kleinere Gemma 2B erreicht. Im Vergleich zu CPU-basierten FastLLM und GPU-basierten MLC-LLM erreicht unser Motor eine über 10-fache Beschleunigung für die Vorabfüllgeschwindigkeit und eine 2- bis 3-fache Beschleunigung für die Decodierungsgeschwindigkeit.
English
The Large Language Model (LLM) is widely employed for tasks such as intelligent assistants, text summarization, translation, and multi-modality on mobile phones. However, the current methods for on-device LLM deployment maintain slow inference speed, which causes poor user experience. To facilitate high-efficiency LLM deployment on device GPUs, we propose four optimization techniques: (a) a symbolic expression-based approach to support dynamic shape model inference; (b) operator optimizations and execution priority setting to enhance inference speed and reduce phone lagging; (c) an FP4 quantization method termed M0E4 to reduce dequantization overhead; (d) a sub-tensor-based technique to eliminate the need for copying KV cache after LLM inference. Furthermore, we implement these methods in our mobile inference engine, Transformer-Lite, which is compatible with both Qualcomm and MTK processors. We evaluated Transformer-Lite's performance using LLMs with varied architectures and parameters ranging from 2B to 14B. Specifically, we achieved prefill and decoding speeds of 121 token/s and 14 token/s for ChatGLM2 6B, and 330 token/s and 30 token/s for smaller Gemma 2B, respectively. Compared with CPU-based FastLLM and GPU-based MLC-LLM, our engine attains over 10x speedup for the prefill speed and 2~3x speedup for the decoding speed.

Summary

AI-Generated Summary

PDF353November 26, 2024