Skeleton-of-Thought: Grote Taalmodellen Kunnen Parallel Decoderen Uitvoeren
Skeleton-of-Thought: Large Language Models Can Do Parallel Decoding
July 28, 2023
Auteurs: Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang
cs.AI
Samenvatting
Dit werk heeft als doel de end-to-end generatielatentie van grote taalmmodellen (LLMs) te verminderen. Een van de belangrijkste oorzaken van de hoge generatielatentie is de sequentiële decodeerbenadering die door bijna alle state-of-the-art LLMs wordt gebruikt. In dit werk, geïnspireerd door het denk- en schrijfproces van mensen, stellen we "Skeleton-of-Thought" (SoT) voor, dat LLMs begeleidt om eerst het skelet van het antwoord te genereren, en vervolgens parallelle API-aanroepen of batch-decodering uitvoert om de inhoud van elk skeletpunt parallel te voltooien. SoT biedt niet alleen een aanzienlijke versnelling (tot 2,39x over 11 verschillende LLMs), maar kan ook de antwoordkwaliteit op verschillende vraagcategorieën potentieel verbeteren wat betreft diversiteit en relevantie. SoT is een eerste poging tot data-gerichte optimalisatie voor efficiëntie, en onthult het potentieel om LLMs meer als een mens te laten denken voor antwoordkwaliteit.
English
This work aims at decreasing the end-to-end generation latency of large
language models (LLMs). One of the major causes of the high generation latency
is the sequential decoding approach adopted by almost all state-of-the-art
LLMs. In this work, motivated by the thinking and writing process of humans, we
propose "Skeleton-of-Thought" (SoT), which guides LLMs to first generate the
skeleton of the answer, and then conducts parallel API calls or batched
decoding to complete the contents of each skeleton point in parallel. Not only
does SoT provide considerable speed-up (up to 2.39x across 11 different LLMs),
but it can also potentially improve the answer quality on several question
categories in terms of diversity and relevance. SoT is an initial attempt at
data-centric optimization for efficiency, and reveal the potential of pushing
LLMs to think more like a human for answer quality.