ChatPaper.aiChatPaper

zip2zip: Адаптивные словари для языковых моделей во время вывода через сжатие токенов

zip2zip: Inference-Time Adaptive Vocabularies for Language Models via Token Compression

June 1, 2025
Авторы: Saibo Geng, Nathan Ranchin, Yunzhen yao, Maxime Peyrard, Chris Wendler, Michael Gastpar, Robert West
cs.AI

Аннотация

Эффективность токенизации играет ключевую роль в производительности и стоимости больших языковых моделей (LLM), однако большинство моделей полагаются на статические токенизаторы, оптимизированные для универсальных корпусов. Фиксированные словари этих токенизаторов часто не адаптируются к доменно- или языково-специфичным данным, что приводит к увеличению длины токеновых последовательностей и росту вычислительных затрат. Мы представляем zip2zip — фреймворк, который позволяет LLM динамически адаптировать словарь токенов во время инференса, что приводит к уменьшению количества генерируемых токенов и, как следствие, к ускорению инференса. zip2zip состоит из трёх ключевых компонентов: (1) токенизатора на основе сжатия Лемпеля-Зива-Велча (LZW), который динамически сжимает токены в повторно используемые "гипертокены"; (2) слоя эмбеддингов, который вычисляет эмбеддинги для вновь образованных гипертокенов в режиме реального времени; и (3) варианта каузального языкового моделирования, который обучает модель работать с гипертокенизированными, сжатыми последовательностями. Мы показываем, что существующую LLM можно адаптировать под zip2zip за 10 GPU-часов с помощью параметрически эффективного тонкого обучения. Полученные zip2zip LLM эффективно учатся использовать гипертокены во время инференса, сокращая длину входных и выходных последовательностей на 20–60%, что приводит к значительному улучшению задержки инференса.
English
Tokenization efficiency plays a critical role in the performance and cost of large language models (LLMs), yet most models rely on static tokenizers optimized for general-purpose corpora. These tokenizers' fixed vocabularies often fail to adapt to domain- or language-specific inputs, leading to longer token sequences and higher computational costs. We introduce zip2zip, a framework that enables LLMs to dynamically adjust token vocabulary at inference time, allowing for fewer generated tokens and thus faster inference. zip2zip consists of three key components: (1) a tokenizer based on Lempel-Ziv-Welch (LZW) compression that incrementally compresses tokens into reusable "hypertokens" on the fly; (2) an embedding layer that computes embeddings for newly formed hypertokens at runtime; and (3) a causal language modeling variant that trains the model to operate on hypertokenized, compressed sequences. We show that an existing LLM can be zip2zip-fied in 10 GPU-hours via parameter-efficient finetuning. The resulting zip2zip LLMs effectively learn to use hypertokens at inference time, reducing input and output sequence length by 20-60\%, with significant improvements in inference latency.
PDF72June 3, 2025