ChatPaper.aiChatPaper

KRANICH: Schlussfolgerung mit eingeschränkter LLM-Generierung

CRANE: Reasoning with constrained LLM generation

February 13, 2025
Autoren: Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
cs.AI

Zusammenfassung

Die Codegenerierung, das symbolische mathematische Schließen und andere Aufgaben erfordern von LLMs, Ausgaben zu erzeugen, die sowohl syntaktisch als auch semantisch korrekt sind. Die Generierung von eingeschränkten LLMs ist eine vielversprechende Richtung, um die Einhaltung formaler Grammatik durchzusetzen, aber frühere Arbeiten haben empirisch festgestellt, dass eine strikte Durchsetzung formaler Einschränkungen oft die Schlussfolgerungsfähigkeiten von LLMs beeinträchtigt. In dieser Arbeit bieten wir zunächst eine theoretische Erklärung dafür, warum die Beschränkung von LLM-Ausgaben auf sehr restriktive Grammatiken, die nur syntaktisch gültige Endantworten zulassen, die Schlussfolgerungsfähigkeiten des Modells reduziert. Zweitens zeigen wir, dass es durch die Erweiterung der Ausgabe-Grammatik mit sorgfältig entworfenen zusätzlichen Regeln immer möglich ist, die Schlussfolgerungsfähigkeiten des LLM zu bewahren, während syntaktische und semantische Korrektheit in den Ausgaben gewährleistet sind. Aufbauend auf diesen theoretischen Erkenntnissen schlagen wir einen schlussfolgerungsgestützten eingeschränkten Dekodierungsalgorithmus, CRANE, vor, der die Richtigkeit der eingeschränkten Generierung effektiv mit der Flexibilität der unbeschränkten Generierung ausbalanciert. Experimente mit mehreren Open-Source LLMs und Benchmarks zeigen, dass CRANE signifikant besser abschneidet als sowohl modernste eingeschränkte Dekodierungsstrategien als auch Standard unbeschränkte Dekodierung, mit einer Genauigkeitsverbesserung von bis zu 10 Prozentpunkten gegenüber Baselines bei anspruchsvollen symbolischen Schließungsbenchmarks GSM-symbolic und FOLIO.
English
Code generation, symbolic math reasoning, and other tasks require LLMs to produce outputs that are both syntactically and semantically correct. Constrained LLM generation is a promising direction to enforce adherence to formal grammar, but prior works have empirically observed that strict enforcement of formal constraints often diminishes the reasoning capabilities of LLMs. In this work, we first provide a theoretical explanation for why constraining LLM outputs to very restrictive grammars that only allow syntactically valid final answers reduces the reasoning capabilities of the model. Second, we demonstrate that by augmenting the output grammar with carefully designed additional rules, it is always possible to preserve the reasoning capabilities of the LLM while ensuring syntactic and semantic correctness in its outputs. Building on these theoretical insights, we propose a reasoning-augmented constrained decoding algorithm, CRANE, which effectively balances the correctness of constrained generation with the flexibility of unconstrained generation. Experiments on multiple open-source LLMs and benchmarks show that CRANE significantly outperforms both state-of-the-art constrained decoding strategies and standard unconstrained decoding, showing up to 10% points accuracy improvement over baselines on challenging symbolic reasoning benchmarks GSM-symbolic and FOLIO.

Summary

AI-Generated Summary

PDF192February 18, 2025