ChatPaper.aiChatPaper

MathFusion: 명령어 융합을 통해 대형 언어 모델의 수학 문제 해결 능력 향상

MathFusion: Enhancing Mathematic Problem-solving of LLM through Instruction Fusion

March 20, 2025
저자: Qizhi Pei, Lijun Wu, Zhuoshi Pan, Yu Li, Honglin Lin, Chenlin Ming, Xin Gao, Conghui He, Rui Yan
cs.AI

초록

대형 언어 모델(LLMs)은 수학적 추론에서 인상적인 진전을 보여왔습니다. 데이터 증강은 수학적 문제 해결 능력을 향상시키는 데 유망하지만, 현재의 접근 방식은 주로 인스턴스 수준의 수정(예: 재구성 또는 구문적 변형 생성)에 국한되어 있어 수학적 지식에 내재된 관계적 구조를 포착하고 활용하지 못합니다. 인간의 학습 과정에서 수학적 숙련도가 상호 연결된 개념에 체계적으로 노출되면서 발전한다는 점에서 영감을 받아, 우리는 교차 문제 지시 합성을 통해 수학적 추론을 강화하는 새로운 프레임워크인 MathFusion을 소개합니다. MathFusion은 이를 세 가지 융합 전략을 통해 구현합니다: (1) 순차적 융합, 이는 관련 문제를 연결하여 해결책의 의존성을 모델링합니다; (2) 병렬 융합, 이는 유사한 문제를 결합하여 개념적 이해를 강화합니다; (3) 조건적 융합, 이는 맥락을 고려한 선택적 문제를 생성하여 추론의 유연성을 높입니다. 이러한 전략을 적용하여 새로운 데이터셋인 MathFusionQA를 생성한 후, 이를 기반으로 모델(DeepSeekMath-7B, Mistral-7B, Llama3-8B)을 미세 조정합니다. 실험 결과는 MathFusion이 데이터 효율성을 유지하면서 수학적 추론에서 상당한 개선을 달성함을 보여줍니다. 다양한 벤치마크에서 정확도가 18.0점 향상되었으며, 단 45K개의 추가 합성 지시만으로도 기존의 단일 지시 접근 방식에 비해 상당한 개선을 이루었습니다. 우리의 데이터셋, 모델 및 코드는 https://github.com/QizhiPei/mathfusion에서 공개되어 있습니다.
English
Large Language Models (LLMs) have shown impressive progress in mathematical reasoning. While data augmentation is promising to enhance mathematical problem-solving ability, current approaches are predominantly limited to instance-level modifications-such as rephrasing or generating syntactic variations-which fail to capture and leverage the intrinsic relational structures inherent in mathematical knowledge. Inspired by human learning processes, where mathematical proficiency develops through systematic exposure to interconnected concepts, we introduce MathFusion, a novel framework that enhances mathematical reasoning through cross-problem instruction synthesis. MathFusion implements this through three fusion strategies: (1) sequential fusion, which chains related problems to model solution dependencies; (2) parallel fusion, which combines analogous problems to reinforce conceptual understanding; and (3) conditional fusion, which creates context-aware selective problems to enhance reasoning flexibility. By applying these strategies, we generate a new dataset, MathFusionQA, followed by fine-tuning models (DeepSeekMath-7B, Mistral-7B, Llama3-8B) on it. Experimental results demonstrate that MathFusion achieves substantial improvements in mathematical reasoning while maintaining high data efficiency, boosting performance by 18.0 points in accuracy across diverse benchmarks while requiring only 45K additional synthetic instructions, representing a substantial improvement over traditional single-instruction approaches. Our datasets, models, and code are publicly available at https://github.com/QizhiPei/mathfusion.

Summary

AI-Generated Summary

PDF232March 21, 2025