ChatPaper.aiChatPaper

CRANE: Рассуждения с ограниченной генерацией LLM

CRANE: Reasoning with constrained LLM generation

February 13, 2025
Авторы: Debangshu Banerjee, Tarun Suresh, Shubham Ugare, Sasa Misailovic, Gagandeep Singh
cs.AI

Аннотация

Генерация кода, символьное математическое рассуждение и другие задачи требуют от LLM'ов производить выходные данные, которые будут как синтаксически, так и семантически корректными. Генерация ограниченных LLM'ов - это перспективное направление для обеспечения соблюдения формальной грамматики, однако предшествующие работы эмпирически наблюдали, что строгое соблюдение формальных ограничений часто снижает способности к рассуждению LLM'ов. В данной работе мы в первую очередь предоставляем теоретическое объяснение того, почему ограничение выходных данных LLM'ов до очень строгих грамматик, позволяющих только синтаксически правильные конечные ответы, снижает способности к рассуждению модели. Во-вторых, мы демонстрируем, что, дополнив грамматику вывода тщательно разработанными дополнительными правилами, всегда можно сохранить способности к рассуждению LLM'ов, обеспечивая синтаксическую и семантическую корректность в их выходных данных. Основываясь на этих теоретических идеях, мы предлагаем алгоритм декодирования с усилением рассуждений, CRANE, который эффективно балансирует корректность ограниченной генерации с гибкостью неконтролируемой генерации. Эксперименты на нескольких LLM'ах с открытым исходным кодом и бенчмарках показывают, что CRANE значительно превосходит как стратегии ограниченного декодирования нового поколения, так и стандартное неконтролируемое декодирование, демонстрируя улучшение точности на уровне до 10% по сравнению с базовыми показателями на сложных символьных бенчмарках рассуждения GSM-symbolic и FOLIO.
English
Code generation, symbolic math reasoning, and other tasks require LLMs to produce outputs that are both syntactically and semantically correct. Constrained LLM generation is a promising direction to enforce adherence to formal grammar, but prior works have empirically observed that strict enforcement of formal constraints often diminishes the reasoning capabilities of LLMs. In this work, we first provide a theoretical explanation for why constraining LLM outputs to very restrictive grammars that only allow syntactically valid final answers reduces the reasoning capabilities of the model. Second, we demonstrate that by augmenting the output grammar with carefully designed additional rules, it is always possible to preserve the reasoning capabilities of the LLM while ensuring syntactic and semantic correctness in its outputs. Building on these theoretical insights, we propose a reasoning-augmented constrained decoding algorithm, CRANE, which effectively balances the correctness of constrained generation with the flexibility of unconstrained generation. Experiments on multiple open-source LLMs and benchmarks show that CRANE significantly outperforms both state-of-the-art constrained decoding strategies and standard unconstrained decoding, showing up to 10% points accuracy improvement over baselines on challenging symbolic reasoning benchmarks GSM-symbolic and FOLIO.

Summary

AI-Generated Summary

PDF192February 18, 2025