ChatPaper.aiChatPaper

Zelfconsistentie voor open-einde generaties

Self-consistency for open-ended generations

July 11, 2023
Auteurs: Siddhartha Jain, Xiaofei Ma, Anoop Deoras, Bing Xiang
cs.AI

Samenvatting

In dit artikel presenteren we een nieuwe aanpak om de kwaliteit en consistentie van gegenereerde outputs van grootschalige vooraf getrainde taalmmodellen (LLMs) te verbeteren. Zelfconsistentie is naar voren gekomen als een effectieve methode voor prompts met vaste antwoorden, waarbij het antwoord met het hoogste aantal stemmen wordt geselecteerd. In dit artikel introduceren we een algemeen kader voor zelfconsistentie dat de toepasbaarheid ervan uitbreidt buiten problemen met vaste antwoorden. Door middel van uitgebreide simulaties tonen we aan dat onze aanpak consistent het optimale of bijna optimale resultaat uit een set kandidaten terugwint. We stellen ook lichtgewicht parameter-vrije gelijkenisfuncties voor die significante en consistente verbeteringen laten zien bij codegeneratie, autoformaliserings- en samenvattings taken, zelfs zonder toegang tot token-logkansen. Onze methode veroorzaakt minimale rekenkundige overhead en vereist geen aanvullende herrangschikkingsmodellen of aanpassingen aan het bestaande model.
English
In this paper, we present a novel approach for improving the quality and consistency of generated outputs from large-scale pre-trained language models (LLMs). Self-consistency has emerged as an effective approach for prompts with fixed answers, selecting the answer with the highest number of votes. In this paper, we introduce a generalized framework for self-consistency that extends its applicability beyond problems that have fixed-answer answers. Through extensive simulations, we demonstrate that our approach consistently recovers the optimal or near-optimal generation from a set of candidates. We also propose lightweight parameter-free similarity functions that show significant and consistent improvements across code generation, autoformalization, and summarization tasks, even without access to token log probabilities. Our method incurs minimal computational overhead, requiring no auxiliary reranker models or modifications to the existing model.
PDF100December 15, 2024