ChatPaper.aiChatPaper

MetaLadder: Miglioramento della Qualità delle Soluzioni Matematiche attraverso il Trasferimento di Ragionamento Analogico-Problema

MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer

March 19, 2025
Autori: Honglin Lin, Zhuoshi Pan, Yu Li, Qizhi Pei, Xin Gao, Mengzhang Cai, Conghui He, Lijun Wu
cs.AI

Abstract

I Large Language Model (LLM) hanno dimostrato capacità promettenti nel risolvere compiti di ragionamento matematico, sfruttando i dati di Chain-of-Thought (CoT) come componente fondamentale per guidare la generazione delle risposte. I paradigmi attuali generano tipicamente CoT e risposte direttamente per un dato problema, divergendo in una certa misura dalle strategie di risoluzione dei problemi umane. Gli esseri umani spesso risolvono i problemi ricordando casi analoghi e sfruttando le loro soluzioni per ragionare sul compito corrente. Ispirati da questo processo cognitivo, proponiamo MetaLadder, un nuovo framework che richiede esplicitamente agli LLM di ricordare e riflettere su meta-problemi, ovvero problemi strutturalmente o semanticamente analoghi, insieme alle loro soluzioni CoT, prima di affrontare il problema target. Inoltre, introduciamo un meccanismo di riformulazione del problema per migliorare la comprensione del modello del problema target rigenerando la domanda originale, il che migliora ulteriormente l'accuratezza del ragionamento. Pertanto, il modello può ottenere un trasferimento di ragionamento da problemi analoghi, imitando le capacità umane di "apprendere dagli esempi" e di generalizzazione. Esperimenti estesi su benchmark matematici dimostrano che il nostro MetaLadder migliora significativamente l'accuratezza nella risoluzione dei problemi degli LLM, superando ampiamente i metodi standard basati su CoT (un guadagno di accuratezza del 10,3%) e altri metodi. Il nostro codice e i dati sono stati rilasciati su https://github.com/LHL3341/MetaLadder.
English
Large Language Models (LLMs) have demonstrated promising capabilities in solving mathematical reasoning tasks, leveraging Chain-of-Thought (CoT) data as a vital component in guiding answer generation. Current paradigms typically generate CoT and answers directly for a given problem, diverging from human problem-solving strategies to some extent. Humans often solve problems by recalling analogous cases and leveraging their solutions to reason about the current task. Inspired by this cognitive process, we propose MetaLadder, a novel framework that explicitly prompts LLMs to recall and reflect on meta-problems, those structurally or semantically analogous problems, alongside their CoT solutions before addressing the target problem. Additionally, we introduce a problem-restating mechanism to enhance the model's comprehension of the target problem by regenerating the original question, which further improves reasoning accuracy. Therefore, the model can achieve reasoning transfer from analogical problems, mimicking human-like "learning from examples" and generalization abilities. Extensive experiments on mathematical benchmarks demonstrate that our MetaLadder significantly boosts LLMs' problem-solving accuracy, largely outperforming standard CoT-based methods (10.3\% accuracy gain) and other methods. Our code and data has been released at https://github.com/LHL3341/MetaLadder.
PDF212March 20, 2025