ChatPaper.aiChatPaper

CRANE: Redeneren met beperkte LLM-generatie

CRANE: Reasoning with constrained LLM generation

February 13, 2025
Auteurs: Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
cs.AI

Samenvatting

Codegeneratie, symbolische wiskundige redenering en andere taken vereisen dat LLM's uitvoer produceren die zowel syntactisch als semantisch correct is. Beperkte LLM-generatie is een veelbelovende richting om naleving van formele grammatica af te dwingen, maar eerdere werken hebben empirisch vastgesteld dat strikte handhaving van formele beperkingen vaak de redeneervaardigheden van LLM's vermindert. In dit werk geven we eerst een theoretische verklaring waarom het beperken van LLM-uitvoer tot zeer restrictieve grammatica's die alleen syntactisch geldige eindantwoorden toestaan, de redeneervaardigheden van het model vermindert. Ten tweede tonen we aan dat door de uitvoergrammatica aan te vullen met zorgvuldig ontworpen aanvullende regels, het altijd mogelijk is om de redeneervaardigheden van de LLM te behouden terwijl syntactische en semantische correctheid in de uitvoer wordt gewaarborgd. Voortbouwend op deze theoretische inzichten stellen we een redenering-versterkt beperkt decoderingsalgoritme voor, CRANE, dat effectief de correctheid van beperkte generatie in balans brengt met de flexibiliteit van onbeperkte generatie. Experimenten met meerdere open-source LLM's en benchmarks tonen aan dat CRANE aanzienlijk beter presteert dan zowel state-of-the-art beperkte decoderingsstrategieën als standaard onbeperkte decodering, met een nauwkeurigheidsverbetering van maximaal 10% ten opzichte van baselines op uitdagende symbolische redeneerbenchmarks GSM-symbolic en FOLIO.
English
Code generation, symbolic math reasoning, and other tasks require LLMs to produce outputs that are both syntactically and semantically correct. Constrained LLM generation is a promising direction to enforce adherence to formal grammar, but prior works have empirically observed that strict enforcement of formal constraints often diminishes the reasoning capabilities of LLMs. In this work, we first provide a theoretical explanation for why constraining LLM outputs to very restrictive grammars that only allow syntactically valid final answers reduces the reasoning capabilities of the model. Second, we demonstrate that by augmenting the output grammar with carefully designed additional rules, it is always possible to preserve the reasoning capabilities of the LLM while ensuring syntactic and semantic correctness in its outputs. Building on these theoretical insights, we propose a reasoning-augmented constrained decoding algorithm, CRANE, which effectively balances the correctness of constrained generation with the flexibility of unconstrained generation. Experiments on multiple open-source LLMs and benchmarks show that CRANE significantly outperforms both state-of-the-art constrained decoding strategies and standard unconstrained decoding, showing up to 10% points accuracy improvement over baselines on challenging symbolic reasoning benchmarks GSM-symbolic and FOLIO.

Summary

AI-Generated Summary

PDF192February 18, 2025