Скелет-мысли: крупные языковые модели способны к параллельному декодированию
Skeleton-of-Thought: Large Language Models Can Do Parallel Decoding
July 28, 2023
Авторы: Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang
cs.AI
Аннотация
Данная работа направлена на снижение сквозной задержки генерации больших языковых моделей (LLM). Одной из основных причин высокой задержки генерации является последовательный подход к декодированию, используемый практически всеми современными LLM. Вдохновляясь процессом мышления и написания текста у людей, мы предлагаем подход "Скелет мысли" (Skeleton-of-Thought, SoT), который направляет LLM сначала сгенерировать скелет ответа, а затем выполнить параллельные API-вызовы или пакетное декодирование для заполнения содержания каждого пункта скелета параллельно. SoT не только обеспечивает значительное ускорение (до 2.39x для 11 различных LLM), но также потенциально может улучшить качество ответов в нескольких категориях вопросов с точки зрения разнообразия и релевантности. SoT представляет собой начальную попытку оптимизации эффективности, ориентированной на данные, и раскрывает потенциал заставить LLM мыслить более по-человечески для повышения качества ответов.
English
This work aims at decreasing the end-to-end generation latency of large
language models (LLMs). One of the major causes of the high generation latency
is the sequential decoding approach adopted by almost all state-of-the-art
LLMs. In this work, motivated by the thinking and writing process of humans, we
propose "Skeleton-of-Thought" (SoT), which guides LLMs to first generate the
skeleton of the answer, and then conducts parallel API calls or batched
decoding to complete the contents of each skeleton point in parallel. Not only
does SoT provide considerable speed-up (up to 2.39x across 11 different LLMs),
but it can also potentially improve the answer quality on several question
categories in terms of diversity and relevance. SoT is an initial attempt at
data-centric optimization for efficiency, and reveal the potential of pushing
LLMs to think more like a human for answer quality.