ChatPaper.aiChatPaper

CRANE : Raisonnement avec génération LLM contrainte

CRANE: Reasoning with constrained LLM generation

February 13, 2025
Auteurs: Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
cs.AI

Résumé

La génération de code, le raisonnement mathématique symbolique et d'autres tâches nécessitent que les LLM produisent des sorties à la fois syntaxiquement et sémantiquement correctes. La génération contrainte de LLM est une direction prometteuse pour imposer le respect de la grammaire formelle, mais des travaux antérieurs ont observé empiriquement que l'application stricte de contraintes formelles diminue souvent les capacités de raisonnement des LLM. Dans ce travail, nous fournissons d'abord une explication théorique de pourquoi le fait de contraindre les sorties des LLM à des grammaires très restrictives qui ne permettent que des réponses finales syntaxiquement valides réduit les capacités de raisonnement du modèle. Ensuite, nous démontrons qu'en augmentant la grammaire de sortie avec des règles supplémentaires soigneusement conçues, il est toujours possible de préserver les capacités de raisonnement des LLM tout en garantissant la correction syntaxique et sémantique de ses sorties. En nous appuyant sur ces insights théoriques, nous proposons un algorithme de décodage contraint augmenté par le raisonnement, CRANE, qui équilibre efficacement la correction de la génération contrainte avec la flexibilité de la génération non contrainte. Des expériences menées sur plusieurs LLM open-source et des référentiels montrent que CRANE surpasse significativement à la fois les stratégies de décodage contraint les plus avancées et le décodage non contraint standard, montrant jusqu'à une amélioration de l'exactitude de 10 points par rapport aux références sur les défis symboliques de raisonnement GSM-symbolic et FOLIO.
English
Code generation, symbolic math reasoning, and other tasks require LLMs to produce outputs that are both syntactically and semantically correct. Constrained LLM generation is a promising direction to enforce adherence to formal grammar, but prior works have empirically observed that strict enforcement of formal constraints often diminishes the reasoning capabilities of LLMs. In this work, we first provide a theoretical explanation for why constraining LLM outputs to very restrictive grammars that only allow syntactically valid final answers reduces the reasoning capabilities of the model. Second, we demonstrate that by augmenting the output grammar with carefully designed additional rules, it is always possible to preserve the reasoning capabilities of the LLM while ensuring syntactic and semantic correctness in its outputs. Building on these theoretical insights, we propose a reasoning-augmented constrained decoding algorithm, CRANE, which effectively balances the correctness of constrained generation with the flexibility of unconstrained generation. Experiments on multiple open-source LLMs and benchmarks show that CRANE significantly outperforms both state-of-the-art constrained decoding strategies and standard unconstrained decoding, showing up to 10% points accuracy improvement over baselines on challenging symbolic reasoning benchmarks GSM-symbolic and FOLIO.

Summary

AI-Generated Summary

PDF192February 18, 2025