ChatPaper.aiChatPaper

MOOSE-Star: 복잡성 장벽을 극복하여 과학적 발견을 위한 효율적 학습 구현

MOOSE-Star: Unlocking Tractable Training for Scientific Discovery by Breaking the Complexity Barrier

March 4, 2026
저자: Zonglin Yang, Lidong Bing
cs.AI

초록

대규모 언어 모델(LLM)이 과학적 발견에 유망한 가능성을 보여주고 있지만, 기존 연구는 추론이나 피드백 기반 학습에 집중하여, 생성적 추론 과정인 P(가설|배경지식)(P(h|b))의 직접적 모델링은 탐구되지 않은 채 남아있습니다. 우리는 방대한 지식 베이스에서 영감을 검색하고 조합하는 데 내재된 조합적 복잡도(O(N^k))로 인해 P(h|b)를 직접 학습하는 것이 수학적으로 다루기 어렵다는 점을 보여줍니다. 이러한 장벽을 극복하기 위해, 우리는 다루기 쉬운 학습과 확장 가능한 추론을 가능하게 하는 통합 프레임워크인 MOOSE-Star를 소개합니다. 최상의 경우, MOOSE-Star는 (1) 발견의 확률론적 방정식에서 도출된 분해된 하위 작업에 대해 학습하고, (2) 동기 부여 기반 계층적 탐색을 통해 대수적 검색을 가능하게 하고 관련 없는 부분 공간을 제거하며, (3) 검색 노이즈에 대한 견고성을 위해 유계 조합을 활용함으로써 복잡도를 지수적에서 대수적(O(log N))으로 감소시킵니다. 이를 위해 우리는 학습을 위한 108,717편의 분해된 논문(38,400 GPU 시간)으로 구성된 TOMATO-Star 데이터셋을 공개합니다. 더 나아가, 우리는 무차별 대입 샘플링이 '복잡도 벽'에 부딪히는 반면, MOOSE-Star는 테스트 시간 동안 지속적인 확장 성능을 보인다는 점을 입증합니다.
English
While large language models (LLMs) show promise in scientific discovery, existing research focuses on inference or feedback-driven training, leaving the direct modeling of the generative reasoning process, P(hypothesis|background) (P(h|b)), unexplored. We demonstrate that directly training P(h|b) is mathematically intractable due to the combinatorial complexity (O(N^k)) inherent in retrieving and composing inspirations from a vast knowledge base. To break this barrier, we introduce MOOSE-Star, a unified framework enabling tractable training and scalable inference. In the best case, MOOSE-Star reduces complexity from exponential to logarithmic (O(log N)) by (1) training on decomposed subtasks derived from the probabilistic equation of discovery, (2) employing motivation-guided hierarchical search to enable logarithmic retrieval and prune irrelevant subspaces, and (3) utilizing bounded composition for robustness against retrieval noise. To facilitate this, we release TOMATO-Star, a dataset of 108,717 decomposed papers (38,400 GPU hours) for training. Furthermore, we show that while brute-force sampling hits a ''complexity wall,'' MOOSE-Star exhibits continuous test-time scaling.
PDF834March 9, 2026