스켈레톤-오브-생각: 대형 언어 모델의 병렬 디코딩 가능성
Skeleton-of-Thought: Large Language Models Can Do Parallel Decoding
July 28, 2023
저자: Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang
cs.AI
초록
본 연구는 대규모 언어 모델(LLM)의 종단 간 생성 지연 시간을 감소시키는 것을 목표로 한다. 높은 생성 지연 시간의 주요 원인 중 하나는 거의 모든 최신 LLM에서 채택된 순차적 디코딩 접근 방식이다. 본 연구에서는 인간의 사고 및 작성 과정에서 영감을 받아 "생각의 골격(Skeleton-of-Thought, SoT)"을 제안한다. SoT는 LLM이 먼저 답변의 골격을 생성하도록 유도한 후, 병렬 API 호출 또는 배치 디코딩을 통해 각 골격 포인트의 내용을 병렬로 완성하는 방식이다. SoT는 상당한 속도 향상(11가지 서로 다른 LLM에서 최대 2.39배)을 제공할 뿐만 아니라, 다양성과 관련성 측면에서 여러 질문 범주에 대한 답변 품질을 잠재적으로 개선할 수 있다. SoT는 효율성을 위한 데이터 중심 최적화의 초기 시도이며, 답변 품질을 위해 LLM이 더 인간처럼 사고하도록 유도하는 잠재력을 보여준다.
English
This work aims at decreasing the end-to-end generation latency of large
language models (LLMs). One of the major causes of the high generation latency
is the sequential decoding approach adopted by almost all state-of-the-art
LLMs. In this work, motivated by the thinking and writing process of humans, we
propose "Skeleton-of-Thought" (SoT), which guides LLMs to first generate the
skeleton of the answer, and then conducts parallel API calls or batched
decoding to complete the contents of each skeleton point in parallel. Not only
does SoT provide considerable speed-up (up to 2.39x across 11 different LLMs),
but it can also potentially improve the answer quality on several question
categories in terms of diversity and relevance. SoT is an initial attempt at
data-centric optimization for efficiency, and reveal the potential of pushing
LLMs to think more like a human for answer quality.