ChatPaper.aiChatPaper

Selbstkonsistenz für offene Generierungen

Self-consistency for open-ended generations

July 11, 2023
Autoren: Siddhartha Jain, Xiaofei Ma, Anoop Deoras, Bing Xiang
cs.AI

Zusammenfassung

In diesem Artikel präsentieren wir einen neuartigen Ansatz zur Verbesserung der Qualität und Konsistenz generierter Ausgaben von großskaligen vortrainierten Sprachmodellen (LLMs). Selbstkonsistenz hat sich als effektive Methode für Prompts mit festen Antworten erwiesen, bei der die Antwort mit den meisten Stimmen ausgewählt wird. In diesem Artikel führen wir einen verallgemeinerten Rahmen für Selbstkonsistenz ein, der deren Anwendbarkeit über Probleme mit festen Antworten hinaus erweitert. Durch umfangreiche Simulationen zeigen wir, dass unser Ansatz konsequent die optimale oder nahezu optimale Generierung aus einer Reihe von Kandidaten ermittelt. Wir schlagen außerdem leichte, parameterfreie Ähnlichkeitsfunktionen vor, die signifikante und konsistente Verbesserungen bei Code-Generierung, Autoformalierung und Zusammenfassungsaufgaben zeigen, selbst ohne Zugriff auf Token-Wahrscheinlichkeiten. Unser Verfahren verursacht minimalen Rechenaufwand und erfordert keine zusätzlichen Reranker-Modelle oder Modifikationen am bestehenden Modell.
English
In this paper, we present a novel approach for improving the quality and consistency of generated outputs from large-scale pre-trained language models (LLMs). Self-consistency has emerged as an effective approach for prompts with fixed answers, selecting the answer with the highest number of votes. In this paper, we introduce a generalized framework for self-consistency that extends its applicability beyond problems that have fixed-answer answers. Through extensive simulations, we demonstrate that our approach consistently recovers the optimal or near-optimal generation from a set of candidates. We also propose lightweight parameter-free similarity functions that show significant and consistent improvements across code generation, autoformalization, and summarization tasks, even without access to token log probabilities. Our method incurs minimal computational overhead, requiring no auxiliary reranker models or modifications to the existing model.
PDF100December 15, 2024