ChatPaper.aiChatPaper

T-MAC: Возрождение ЦПУ с помощью таблицы поиска для развертывания низкобитового LLM на краю

T-MAC: CPU Renaissance via Table Lookup for Low-Bit LLM Deployment on Edge

June 25, 2024
Авторы: Jianyu Wei, Shijie Cao, Ting Cao, Lingxiao Ma, Lei Wang, Yanyong Zhang, Mao Yang
cs.AI

Аннотация

Развертывание больших языковых моделей (LLM) на периферийных устройствах становится все более важным для улучшения интеллекта на устройстве. Квантование весов критично для уменьшения объема памяти LLM на устройствах. Однако низкобитовые LLM требуют смешанного умножения матриц с низкой точностью (mpGEMM) весов и высокой точности активаций во время вывода. Существующие системы, не имеющие встроенной поддержки для mpGEMM, прибегают к деквантованию весов для высокоточных вычислений. Такой косвенный способ может привести к значительным накладным расходам при выводе. В данной статье мы представляем T-MAC, инновационный метод на основе таблицы поиска (LUT), разработанный для эффективного вывода низкобитовых LLM (т.е. весово-квантованных LLM) на ЦП. T-MAC напрямую поддерживает mpGEMM без деквантования, одновременно устраняя умножения и уменьшая требуемые сложения. Конкретно, T-MAC преобразует традиционное умножение, ориентированное на тип данных, в поиск по таблице битов и обеспечивает единое и масштабируемое решение для mpGEMM. Наши ядра на основе LUT масштабируются линейно по ширине бита веса. Оцененный на моделях Llama и BitNet с низким битовым разрешением, T-MAC демонстрирует увеличение пропускной способности до 4 раз и снижение энергопотребления на 70% по сравнению с llama.cpp. Для BitNet-b1.58-3B T-MAC обеспечивает скорость генерации токенов 30 токенов/с на одном ядре и 71 токен/с на восьми ядрах на M2-Ultra, и 11 токенов/с на устройствах более низкого уровня, таких как Raspberry Pi 5, что значительно превышает среднюю скорость чтения взрослого. T-MAC с парадигмой вычислений на основе LUT открывает путь для практического развертывания низкобитовых LLM на ресурсоемких периферийных устройствах без ущерба для вычислительной эффективности. Система доступна в открытом доступе по адресу https://github.com/microsoft/T-MAC.
English
The deployment of Large Language Models (LLMs) on edge devices is increasingly important to enhance on-device intelligence. Weight quantization is crucial for reducing the memory footprint of LLMs on devices. However, low-bit LLMs necessitate mixed precision matrix multiplication (mpGEMM) of low precision weights and high precision activations during inference. Existing systems, lacking native support for mpGEMM, resort to dequantize weights for high precision computation. Such an indirect way can lead to a significant inference overhead. In this paper, we introduce T-MAC, an innovative lookup table(LUT)-based method designed for efficient low-bit LLM (i.e., weight-quantized LLM) inference on CPUs. T-MAC directly supports mpGEMM without dequantization, while simultaneously eliminating multiplications and reducing additions required. Specifically, T-MAC transforms the traditional data-type-centric multiplication to bit-wise table lookup, and enables a unified and scalable mpGEMM solution. Our LUT-based kernels scale linearly to the weight bit-width. Evaluated on low-bit Llama and BitNet models, T-MAC demonstrates up to 4x increase in throughput and 70% reduction in energy consumption compared to llama.cpp. For BitNet-b1.58-3B, T-MAC delivers a token generation throughput of 30 tokens/s with a single core and 71 tokens/s with eight cores on M2-Ultra, and 11 tokens/s on lower-end devices like Raspberry Pi 5, which significantly exceeds the adult average reading speed. T-MAC with LUT-based computing paradigm, paves the way for the practical deployment of low-bit LLMs on resource-constrained edge devices without compromising computational efficiency. The system is open-sourced at https://github.com/microsoft/T-MAC.

Summary

AI-Generated Summary

PDF121November 28, 2024