MetaLadder: 유사 문제 추론 전이를 통한 수학적 해결 품질 향상
MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer
March 19, 2025
저자: Honglin Lin, Zhuoshi Pan, Yu Li, Qizhi Pei, Xin Gao, Mengzhang Cai, Conghui He, Lijun Wu
cs.AI
초록
대형 언어 모델(LLMs)은 수학적 추론 과제 해결에서 유망한 능력을 보여주며, 답변 생성을 안내하는 중요한 요소로서 사고의 연쇄(Chain-of-Thought, CoT) 데이터를 활용하고 있습니다. 현재의 패러다임은 일반적으로 주어진 문제에 대해 직접 CoT와 답변을 생성하는데, 이는 인간의 문제 해결 전략과 어느 정도 차이가 있습니다. 인간은 종종 유사한 사례를 떠올리고 그 해결책을 활용하여 현재 과제에 대해 추론합니다. 이러한 인지 과정에서 영감을 받아, 우리는 MetaLadder라는 새로운 프레임워크를 제안합니다. 이 프레임워크는 LLM이 대상 문제를 해결하기 전에 구조적 또는 의미적으로 유사한 문제인 메타 문제와 그들의 CoT 해결책을 명시적으로 상기하고 반영하도록 유도합니다. 또한, 문제 재진술 메커니즘을 도입하여 원래 질문을 재생성함으로써 모델이 대상 문제를 더 잘 이해하도록 하여 추론 정확도를 더욱 향상시킵니다. 따라서 모델은 유사 문제로부터의 추론 전달을 달성할 수 있으며, 인간과 같은 "예제로부터 학습" 및 일반화 능력을 모방할 수 있습니다. 수학적 벤치마크에 대한 광범위한 실험을 통해, 우리의 MetaLadder가 LLM의 문제 해결 정확도를 크게 향상시키며, 표준 CoT 기반 방법(10.3% 정확도 향상) 및 기타 방법을 크게 능가함을 입증했습니다. 우리의 코드와 데이터는 https://github.com/LHL3341/MetaLadder에서 공개되었습니다.
English
Large Language Models (LLMs) have demonstrated promising capabilities in
solving mathematical reasoning tasks, leveraging Chain-of-Thought (CoT) data as
a vital component in guiding answer generation. Current paradigms typically
generate CoT and answers directly for a given problem, diverging from human
problem-solving strategies to some extent. Humans often solve problems by
recalling analogous cases and leveraging their solutions to reason about the
current task. Inspired by this cognitive process, we propose
MetaLadder, a novel framework that explicitly prompts LLMs to recall
and reflect on meta-problems, those structurally or semantically analogous
problems, alongside their CoT solutions before addressing the target problem.
Additionally, we introduce a problem-restating mechanism to enhance the model's
comprehension of the target problem by regenerating the original question,
which further improves reasoning accuracy. Therefore, the model can achieve
reasoning transfer from analogical problems, mimicking human-like "learning
from examples" and generalization abilities. Extensive experiments on
mathematical benchmarks demonstrate that our MetaLadder significantly boosts
LLMs' problem-solving accuracy, largely outperforming standard CoT-based
methods (10.3\% accuracy gain) and other methods. Our code and data
has been released at https://github.com/LHL3341/MetaLadder.Summary
AI-Generated Summary