ChatPaper.aiChatPaper

MetaLadder: Повышение качества математических решений через перенос аналогичного рассуждения задач

MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer

March 19, 2025
Авторы: Honglin Lin, Zhuoshi Pan, Yu Li, Qizhi Pei, Xin Gao, Mengzhang Cai, Conghui He, Lijun Wu
cs.AI

Аннотация

Крупные языковые модели (LLMs) продемонстрировали перспективные возможности в решении задач математического рассуждения, используя данные цепочки мыслей (Chain-of-Thought, CoT) как ключевой компонент для генерации ответов. Современные подходы обычно генерируют CoT и ответы непосредственно для заданной задачи, что в некоторой степени отличается от стратегий решения задач, применяемых людьми. Люди часто решают задачи, вспоминая аналогичные случаи и используя их решения для рассуждений о текущей задаче. Вдохновленные этим когнитивным процессом, мы предлагаем MetaLadder — новый фреймворк, который явно побуждает LLMs вспоминать и анализировать мета-задачи, то есть задачи, структурно или семантически аналогичные текущей, вместе с их CoT-решениями, прежде чем приступать к решению целевой задачи. Кроме того, мы вводим механизм переформулирования задачи, чтобы улучшить понимание модели целевой задачи путем повторной генерации исходного вопроса, что дополнительно повышает точность рассуждений. Таким образом, модель может достичь переноса рассуждений с аналогичных задач, имитируя человеческую способность "учиться на примерах" и обобщать. Масштабные эксперименты на математических бенчмарках показывают, что наш MetaLadder значительно повышает точность решения задач LLMs, значительно превосходя стандартные методы на основе CoT (увеличение точности на 10,3%) и другие подходы. Наш код и данные доступны по адресу https://github.com/LHL3341/MetaLadder.
English
Large Language Models (LLMs) have demonstrated promising capabilities in solving mathematical reasoning tasks, leveraging Chain-of-Thought (CoT) data as a vital component in guiding answer generation. Current paradigms typically generate CoT and answers directly for a given problem, diverging from human problem-solving strategies to some extent. Humans often solve problems by recalling analogous cases and leveraging their solutions to reason about the current task. Inspired by this cognitive process, we propose MetaLadder, a novel framework that explicitly prompts LLMs to recall and reflect on meta-problems, those structurally or semantically analogous problems, alongside their CoT solutions before addressing the target problem. Additionally, we introduce a problem-restating mechanism to enhance the model's comprehension of the target problem by regenerating the original question, which further improves reasoning accuracy. Therefore, the model can achieve reasoning transfer from analogical problems, mimicking human-like "learning from examples" and generalization abilities. Extensive experiments on mathematical benchmarks demonstrate that our MetaLadder significantly boosts LLMs' problem-solving accuracy, largely outperforming standard CoT-based methods (10.3\% accuracy gain) and other methods. Our code and data has been released at https://github.com/LHL3341/MetaLadder.

Summary

AI-Generated Summary

PDF212March 20, 2025