ChatPaper.aiChatPaper

MetaLadder: Elevando a Qualidade de Soluções Matemáticas por meio de Transferência de Raciocínio Analógico de Problemas

MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer

March 19, 2025
Autores: Honglin Lin, Zhuoshi Pan, Yu Li, Qizhi Pei, Xin Gao, Mengzhang Cai, Conghui He, Lijun Wu
cs.AI

Resumo

Modelos de Linguagem de Grande Escala (LLMs) têm demonstrado capacidades promissoras na resolução de tarefas de raciocínio matemático, utilizando dados de Cadeia de Pensamento (CoT) como um componente vital para orientar a geração de respostas. Os paradigmas atuais geralmente geram CoT e respostas diretamente para um problema dado, divergindo, em certa medida, das estratégias humanas de resolução de problemas. Os seres humanos frequentemente resolvem problemas ao recordar casos análogos e aproveitar suas soluções para raciocinar sobre a tarefa atual. Inspirados por esse processo cognitivo, propomos o MetaLadder, uma nova estrutura que explicitamente solicita que os LLMs recordem e reflitam sobre meta-problemas, ou seja, problemas estrutural ou semanticamente análogos, juntamente com suas soluções CoT, antes de abordar o problema alvo. Além disso, introduzimos um mecanismo de reformulação de problemas para aprimorar a compreensão do modelo sobre o problema alvo, regenerando a questão original, o que melhora ainda mais a precisão do raciocínio. Assim, o modelo pode alcançar a transferência de raciocínio a partir de problemas análogos, imitando a capacidade humana de "aprender com exemplos" e de generalização. Experimentos extensivos em benchmarks matemáticos demonstram que o nosso MetaLadder aumenta significativamente a precisão na resolução de problemas pelos LLMs, superando amplamente os métodos baseados em CoT padrão (ganho de 10,3% na precisão) e outros métodos. Nosso código e dados foram disponibilizados em https://github.com/LHL3341/MetaLadder.
English
Large Language Models (LLMs) have demonstrated promising capabilities in solving mathematical reasoning tasks, leveraging Chain-of-Thought (CoT) data as a vital component in guiding answer generation. Current paradigms typically generate CoT and answers directly for a given problem, diverging from human problem-solving strategies to some extent. Humans often solve problems by recalling analogous cases and leveraging their solutions to reason about the current task. Inspired by this cognitive process, we propose MetaLadder, a novel framework that explicitly prompts LLMs to recall and reflect on meta-problems, those structurally or semantically analogous problems, alongside their CoT solutions before addressing the target problem. Additionally, we introduce a problem-restating mechanism to enhance the model's comprehension of the target problem by regenerating the original question, which further improves reasoning accuracy. Therefore, the model can achieve reasoning transfer from analogical problems, mimicking human-like "learning from examples" and generalization abilities. Extensive experiments on mathematical benchmarks demonstrate that our MetaLadder significantly boosts LLMs' problem-solving accuracy, largely outperforming standard CoT-based methods (10.3\% accuracy gain) and other methods. Our code and data has been released at https://github.com/LHL3341/MetaLadder.

Summary

AI-Generated Summary

PDF212March 20, 2025