ChatPaper.aiChatPaper

MOOSE-Star: Toegankelijke Training voor Wetenschappelijke Ontdekkingen Door de Complexiteitsbarrière te Doorbreken

MOOSE-Star: Unlocking Tractable Training for Scientific Discovery by Breaking the Complexity Barrier

March 4, 2026
Auteurs: Zonglin Yang, Lidong Bing
cs.AI

Samenvatting

Hoewel grote taalmodellen (LLM's) potentie tonen voor wetenschappelijke ontdekking, richt bestaand onderzoek zich op inferentie of feedback-gestuurde training, waardoor de directe modellering van het generatieve redeneerproces, P(hypothese|achtergrond) (P(h|b)), onontgonnen blijft. Wij tonen aan dat het direct trainen van P(h|b) wiskundig onhanteerbaar is vanwege de combinatorische complexiteit (O(N^k)) die inherent is aan het ophalen en samenstellen van inspiraties uit een uitgebreide kennisbank. Om deze barrière te doorbreken, introduceren we MOOSE-Star, een uniform raamwerk dat hanteerbare training en schaalbare inferentie mogelijk maakt. In het beste geval reduceert MOOSE-Star de complexiteit van exponentieel naar logaritmisch (O(log N)) door (1) training op ontbonden deeltaken afgeleid van de probabilistische vergelijking van ontdekking, (2) inzet van motivatie-gestuurd hiërarchisch zoeken om logaritmisch ophalen mogelijk te maken en irrelevante deelruimtes uit te sluiten, en (3) gebruikmaking van begrensde compositie voor robuustheid tegen ruis bij het ophalen. Om dit te faciliteren, publiceren we TOMATO-Star, een dataset van 108.717 ontbonden artikelen (38.400 GPU-uren) voor training. Verder tonen we aan dat, hoewel brute-force steekproefname een "complexiteitsmuur" raakt, MOOSE-Star continue schaalvergroting tijdens testtijd vertoont.
English
While large language models (LLMs) show promise in scientific discovery, existing research focuses on inference or feedback-driven training, leaving the direct modeling of the generative reasoning process, P(hypothesis|background) (P(h|b)), unexplored. We demonstrate that directly training P(h|b) is mathematically intractable due to the combinatorial complexity (O(N^k)) inherent in retrieving and composing inspirations from a vast knowledge base. To break this barrier, we introduce MOOSE-Star, a unified framework enabling tractable training and scalable inference. In the best case, MOOSE-Star reduces complexity from exponential to logarithmic (O(log N)) by (1) training on decomposed subtasks derived from the probabilistic equation of discovery, (2) employing motivation-guided hierarchical search to enable logarithmic retrieval and prune irrelevant subspaces, and (3) utilizing bounded composition for robustness against retrieval noise. To facilitate this, we release TOMATO-Star, a dataset of 108,717 decomposed papers (38,400 GPU hours) for training. Furthermore, we show that while brute-force sampling hits a ''complexity wall,'' MOOSE-Star exhibits continuous test-time scaling.
PDF896March 26, 2026