Skeleton-of-Thought: I Modelli Linguistici di Grandi Dimensioni Possono Eseguire Decodifica Parallela
Skeleton-of-Thought: Large Language Models Can Do Parallel Decoding
July 28, 2023
Autori: Xuefei Ning, Zinan Lin, Zixuan Zhou, Huazhong Yang, Yu Wang
cs.AI
Abstract
Questo lavoro mira a ridurre la latenza end-to-end nella generazione di modelli linguistici di grandi dimensioni (LLM). Una delle principali cause dell'elevata latenza di generazione è l'approccio di decodifica sequenziale adottato da quasi tutti gli LLM all'avanguardia. In questo lavoro, ispirati dal processo di pensiero e scrittura umano, proponiamo "Skeleton-of-Thought" (SoT), che guida gli LLM a generare prima lo scheletro della risposta, per poi effettuare chiamate API parallele o decodifiche in batch per completare i contenuti di ciascun punto dello scheletro in parallelo. SoT non solo offre un notevole aumento di velocità (fino a 2,39x su 11 diversi LLM), ma può anche potenzialmente migliorare la qualità delle risposte in diverse categorie di domande in termini di diversità e pertinenza. SoT rappresenta un tentativo iniziale di ottimizzazione centrata sui dati per l'efficienza e rivela il potenziale di spingere gli LLM a pensare in modo più umano per migliorare la qualità delle risposte.
English
This work aims at decreasing the end-to-end generation latency of large
language models (LLMs). One of the major causes of the high generation latency
is the sequential decoding approach adopted by almost all state-of-the-art
LLMs. In this work, motivated by the thinking and writing process of humans, we
propose "Skeleton-of-Thought" (SoT), which guides LLMs to first generate the
skeleton of the answer, and then conducts parallel API calls or batched
decoding to complete the contents of each skeleton point in parallel. Not only
does SoT provide considerable speed-up (up to 2.39x across 11 different LLMs),
but it can also potentially improve the answer quality on several question
categories in terms of diversity and relevance. SoT is an initial attempt at
data-centric optimization for efficiency, and reveal the potential of pushing
LLMs to think more like a human for answer quality.