ChatPaper.aiChatPaper

MOOSE-Star: Superare la Barriera della Complessità per Abilitare un Addestramento Trattabile nella Scoperta Scientifica

MOOSE-Star: Unlocking Tractable Training for Scientific Discovery by Breaking the Complexity Barrier

March 4, 2026
Autori: Zonglin Yang, Lidong Bing
cs.AI

Abstract

Sebbene i grandi modelli linguistici (LLM) mostrino potenziale nella scoperta scientifica, la ricerca esistente si concentra sull'inferenza o sull'addestramento guidato dal feedback, lasciando inesplorata la modellizzazione diretta del processo di ragionamento generativo, P(ipotesi|contesto) (P(h|b)). Dimostriamo che addestrare direttamente P(h|b) è matematicamente intrattabile a causa della complessità combinatoria (O(N^k)) intrinseca nel recuperare e comporre ispirazioni da una vasta base di conoscenza. Per superare questa barriera, introduciamo MOOSE-Star, un framework unificato che abilita un addestramento trattabile e un'inferenza scalabile. Nel caso migliore, MOOSE-Star riduce la complessità da esponenziale a logaritmica (O(log N)) attraverso: (1) l'addestramento su sottocompiti scomposti derivati dall'equazione probabilistica della scoperta, (2) l'impiego di una ricerca gerarchica guidata dalla motivazione per abilitare un recupero logaritmico e potare i sottospazi irrilevanti, e (3) l'utilizzo di una composizione limitata per garantire robustezza contro il rumore nel recupero. Per facilitare ciò, rilasciamo TOMATO-Star, un dataset di 108.717 articoli scomposti (38.400 ore GPU) per l'addestramento. Inoltre, mostriamo che mentre il campionamento a forza bruta colpisce un "muro della complessità", MOOSE-Star esibisce uno scaling continuo al momento del test.
English
While large language models (LLMs) show promise in scientific discovery, existing research focuses on inference or feedback-driven training, leaving the direct modeling of the generative reasoning process, P(hypothesis|background) (P(h|b)), unexplored. We demonstrate that directly training P(h|b) is mathematically intractable due to the combinatorial complexity (O(N^k)) inherent in retrieving and composing inspirations from a vast knowledge base. To break this barrier, we introduce MOOSE-Star, a unified framework enabling tractable training and scalable inference. In the best case, MOOSE-Star reduces complexity from exponential to logarithmic (O(log N)) by (1) training on decomposed subtasks derived from the probabilistic equation of discovery, (2) employing motivation-guided hierarchical search to enable logarithmic retrieval and prune irrelevant subspaces, and (3) utilizing bounded composition for robustness against retrieval noise. To facilitate this, we release TOMATO-Star, a dataset of 108,717 decomposed papers (38,400 GPU hours) for training. Furthermore, we show that while brute-force sampling hits a ''complexity wall,'' MOOSE-Star exhibits continuous test-time scaling.
PDF896March 26, 2026