AdaptiVocab: Повышение эффективности крупных языковых моделей в специализированных областях через легковесную адаптацию словаряAdaptiVocab: Enhancing LLM Efficiency in Focused Domains through
Lightweight Vocabulary Adaptation
Крупные языковые модели (LLM) продемонстрировали впечатляющую универсальность в качестве моделей общего назначения. Однако их широкая применимость сопровождается высокими вычислительными затратами, особенно при авторегрессивном декодировании, где каждый шаг требует выполнения прямого прохода. В специализированных областях общие возможности избыточны и могут быть заменены на повышение эффективности. В данной работе мы предлагаем новый подход к адаптации доменов, снижая задержки и вычислительные затраты за счет адаптации словаря к узким областям интересов. Мы представляем AdaptiVocab — сквозной метод адаптации словаря, разработанный для повышения эффективности LLM в условиях ограниченных ресурсов. AdaptiVocab может быть применен к любому токенизатору и архитектуре, модифицируя словарь путем замены токенов на доменно-специфичные токены на основе n-грамм, что сокращает количество токенов, необходимых как для обработки входных данных, так и для генерации выходных. AdaptiVocab инициализирует новые вложения для n-токенов с использованием экспоненциально взвешенной комбинации существующих вложений и включает легковесный этап тонкой настройки, который может быть эффективно выполнен на одном GPU. Мы оцениваем две 7B LLM в трех узких доменах, анализируя эффективность, качество генерации и производительность на конечных задачах. Наши результаты показывают, что AdaptiVocab сокращает использование токенов более чем на 25% без ущерба для производительности.