ChatPaper.aiChatPaper

MetaLadder: Ascendiendo en la Calidad de Soluciones Matemáticas mediante la Transferencia de Razonamiento Analógico de Problemas

MetaLadder: Ascending Mathematical Solution Quality via Analogical-Problem Reasoning Transfer

March 19, 2025
Autores: Honglin Lin, Zhuoshi Pan, Yu Li, Qizhi Pei, Xin Gao, Mengzhang Cai, Conghui He, Lijun Wu
cs.AI

Resumen

Los Modelos de Lenguaje de Gran Escala (LLMs) han demostrado capacidades prometedoras para resolver tareas de razonamiento matemático, aprovechando los datos de Cadena de Pensamiento (CoT) como un componente vital para guiar la generación de respuestas. Los paradigmas actuales suelen generar CoT y respuestas directamente para un problema dado, divergiendo en cierta medida de las estrategias de resolución de problemas humanas. Los humanos a menudo resuelven problemas recordando casos análogos y aprovechando sus soluciones para razonar sobre la tarea actual. Inspirados por este proceso cognitivo, proponemos MetaLadder, un marco novedoso que incita explícitamente a los LLMs a recordar y reflexionar sobre meta-problemas, aquellos problemas estructural o semánticamente análogos, junto con sus soluciones CoT antes de abordar el problema objetivo. Además, introducimos un mecanismo de reformulación de problemas para mejorar la comprensión del modelo del problema objetivo mediante la regeneración de la pregunta original, lo que mejora aún más la precisión del razonamiento. Por lo tanto, el modelo puede lograr una transferencia de razonamiento a partir de problemas análogos, imitando la capacidad humana de "aprender de ejemplos" y de generalización. Experimentos extensos en benchmarks matemáticos demuestran que nuestro MetaLadder aumenta significativamente la precisión de resolución de problemas de los LLMs, superando ampliamente los métodos basados en CoT estándar (un aumento de precisión del 10.3\%) y otros métodos. Nuestro código y datos han sido publicados en https://github.com/LHL3341/MetaLadder.
English
Large Language Models (LLMs) have demonstrated promising capabilities in solving mathematical reasoning tasks, leveraging Chain-of-Thought (CoT) data as a vital component in guiding answer generation. Current paradigms typically generate CoT and answers directly for a given problem, diverging from human problem-solving strategies to some extent. Humans often solve problems by recalling analogous cases and leveraging their solutions to reason about the current task. Inspired by this cognitive process, we propose MetaLadder, a novel framework that explicitly prompts LLMs to recall and reflect on meta-problems, those structurally or semantically analogous problems, alongside their CoT solutions before addressing the target problem. Additionally, we introduce a problem-restating mechanism to enhance the model's comprehension of the target problem by regenerating the original question, which further improves reasoning accuracy. Therefore, the model can achieve reasoning transfer from analogical problems, mimicking human-like "learning from examples" and generalization abilities. Extensive experiments on mathematical benchmarks demonstrate that our MetaLadder significantly boosts LLMs' problem-solving accuracy, largely outperforming standard CoT-based methods (10.3\% accuracy gain) and other methods. Our code and data has been released at https://github.com/LHL3341/MetaLadder.

Summary

AI-Generated Summary

PDF212March 20, 2025