ChatPaper.aiChatPaper

Хирург LLM

The LLM Surgeon

December 28, 2023
Авторы: Tycho F. A. van der Ouderaa, Markus Nagel, Mart van Baalen, Yuki M. Asano, Tijmen Blankevoort
cs.AI

Аннотация

Современные языковые модели становятся все более крупными в стремлении достичь наивысшей производительности на больших корпусах доступных текстовых данных. Однако огромный размер архитектур Transformer затрудняет развертывание моделей в условиях вычислительных, экологических или специфических для устройств ограничений. Мы исследуем сжатие существующих предобученных моделей на основе данных как альтернативу обучению меньших моделей с нуля. Для этого мы масштабируем аппроксимации кривизны, факторизованные по Кронекеру, для ландшафта целевой функции потерь в крупных языковых моделях. Это позволяет нам вычислять как динамическое распределение структур, которые могут быть удалены, так и обновления оставшихся весов, учитывающие удаление. Мы предлагаем общий фреймворк для неструктурированного, полуструктурированного и структурированного прореживания и улучшаем обновления весов для учета большего количества корреляций между ними, сохраняя при этом вычислительную эффективность. Экспериментально наш метод позволяет прореживать строки и столбцы в ряде моделей OPT и Llamav2-7B на 20%-30% с незначительной потерей производительности и достигает современных результатов в неструктурированном и полуструктурированном прореживании крупных языковых моделей.
English
State-of-the-art language models are becoming increasingly large in an effort to achieve the highest performance on large corpora of available textual data. However, the sheer size of the Transformer architectures makes it difficult to deploy models within computational, environmental or device-specific constraints. We explore data-driven compression of existing pretrained models as an alternative to training smaller models from scratch. To do so, we scale Kronecker-factored curvature approximations of the target loss landscape to large language models. In doing so, we can compute both the dynamic allocation of structures that can be removed as well as updates of remaining weights that account for the removal. We provide a general framework for unstructured, semi-structured and structured pruning and improve upon weight updates to capture more correlations between weights, while remaining computationally efficient. Experimentally, our method can prune rows and columns from a range of OPT models and Llamav2-7B by 20%-30%, with a negligible loss in performance, and achieve state-of-the-art results in unstructured and semi-structured pruning of large language models.
PDF91December 15, 2024